Showing 133 to 136

Figures of style

Elocutio

Parallellism

Upprepningar. Superkategori

Assonance

Fonetiska upprepningar. Båda allitteration, rim och upprepningar av ljud inne i ord.

Allitteration

Upprepningen av ett ljud från början av ett ord till början av ett annat ord.

Rhyme

Upprepningen av ett ljud från slutet av ett ord till slutet av ett annat ord.

Elision

När ett ljud eller en bokstav är utesluten. "Hwad hielper om Jag daglig'n skulle gråta?"

Ploke

Upprepning av ett enskilt ord. Superkategori

Anaphora

Upprepning av minst ett ord i början av flera följande satser eller rader.

This figure of speech is called anaphora, for repeating a word in the start of many consecutive clauses.

"I needed a drink, I needed a lot of life insurance, I needed a vacation, I needed a home in the country."

Epiphora

Upprepning av minst ett ord i slutet av flera följande satser eller rader.

This figure of speech is called epiphora, for repeating a word at the end of many consecutive clauses.

"Take whatever idiot they have at the top of whatever agency and give me a better idiot. Give me a caring idiot. Give me a sensitive idiot. Just don’t give me the same idiot.”

Anadiplosis

Upprepning av ett ord från slutet av en mening till början av nästa mening. "Sommar blev höst. Höst blev vinter."

Epanalepsis

An epanalepsis: "Violence leads to violence". The end repeats the beginning.

A kind of opposite of anadiplosis. An example that embeds both anadiplosis and epanalepsis: "Summer turns to winter. Winter turns to summer."

Polysyndeton

Att lägga till fler konjunktioner än nödvändigt. och och och och

There is an example of both these figures [polysyndeton and asyndeton] in a passage of Demosthenes. For as to naval power, and the number of forces, and revenues, and a plenty of martial preparations, and in a word, as to other things that may be esteemed the strength of a state, these are all both more and greater than in former times; but all these things are rendered useless, inefficacious, abortive, through the power of corruption.

In the first part of this sentence, the repetition of the conjunction and seems to add to the strength of the particulars it enumerates, and each particular demands a deliberate and emphatic pronunciation in the rising inflection; but the last part of the sentence, without the particles, being expressive of the impatience and regret of the speaker, requires a swifter pronunciation of the particulars."

This figure of speech is called polysyndeton.

"Oh, my piglets, we are the origins of war—not history's forces, nor the times, nor justice, nor the lack of it, nor causes, nor religions, nor ideas, nor kinds of government—not any other thing. We are the killers."

Asyndeton

Avsaknad av brytord, ger en rytmisk effekt. Funktionen är att varje sats framställs som likvärdig och därför betonas starkare, samma som i polysyndeton.

Arbeta hårt, respektera andras åsikter, klä dig snyggt, duscha varje dag, ha alltid minst tvåhundra i plånboken, skratta aldrig åt lärdom.

Ellipsis

Att ett ord utelämnas. "Gick till stan".

Isocolon

Upprepning av ett grammatiskt mönster i två satser eller meningar.

"Vindarna leker i skogen. Fåglarna sjunger i skogen."

I strikt bemärkelse ska isocolon inte bara upprepa det grammatiska mönstret utan även upprepa stavelsemönstret. Följande uppfyller inte det senare.

"Vindarna leker i skogen. Fåglarna sjunger i gläntorna."

Ofta starkt poetisk och rytmisk effekt som skapar en känsla av upphöjdhet och allvar.

Climax

Jag är upprörd. Nej, jag är faktiskt riktigt arg. Man skulle kunna säga att jag är heligt förbannad.

Vanligen består en klimax av tre satser som blir längre och längre.

Effekten av en lyckad klimax är att känslan faktiskt intensifieras, både hos publiken och hos talaren.

Anticlimax

"När han var ung var inget omöjligt. När han var medelålders uppnådde han det omöjliga. Som gammal var han alldeles omöjlig".

Antiklimax har ofta en komisk effekt.

Pleonasm

Det var värst vad du gormar och skriker!

Idag är det kallt och kyligt.

Förstärker ofta och ger en mer levande bild.

Accumulatio

Hopning.

"Såret värker, smärtar, bultar och bankar, svider och bränner."

"För bara ord räcker inte. Löften duger inte i sig. Om 1,5-gradersmålet från Paris ska ha en chans att nås krävs att jordens länder förbinder sig att leverera verkstad. Resultat."

Har en pedagogisk funktion – det tydliggör vad som avses – och fungerar ibland förstärkande.

Paraphrase

"Det krävs att jordens länder förbinder sig att leverera verkstad […] fler länder måste göra sitt […] hoppet att många länder kommer ikapp de mer ambitiösa."

Här repeteras samma budskap vid olika ställen i en text, uttryckt olika. Det är parafrasering. Variationen kan göra att det når fram till fler på grund av att vissa formuleringar fungerar bättre på vissa människor.

Man skulle kunna säga alla versioner på en gång, då blir det en hopning (Accumulatio).

Antithesis

"Det gick direkt från höst till vår"

Här är en antites: den nämner motsatserna höst och vår som är varandras antiteser. Kontrasten förstärker känslan av avsaknad av vintern, att något blev fel, bättre än om man skulle säga "vintern var mildare än vanligt".

Oxymora

Kiasm

Evidentia

Antiphrasis

Just semantic inversion; verbal irony.

"Yes, I killed him. I killed him for money–and a woman–and I didn't get the money and I didn't get the woman. Pretty, isn't it?"

"I was awakened by the dulcet tones of Frank, the morning doorman, alternately yelling my name, ringing my doorbell, and pounding on my apartment door."

What links here

Created (3 years ago)

Hyperpriors

Bayesian methods

Since sigma (the standard deviation) cannot be negative, a prior on sigma should follow the positive half of any distribution, or a distribution that is always positive, like the exponential. McElreath often uses HalfCauchy.

Using a Exp(1) distribution is nice and intuitive for a first-timer IMO. "Values of sigma further from zero are exponentially less likely". A power law is very similar, but with a fatter tail.

What links here

Created (3 years ago)

Ensemble learning

Bayesian methods

Bayesian model averaging, or ensemble methods, is the art of fitting multiple models and then utilizing all of them to form a better prediction. It's not as dumb as just taking the average prediction.

Evaluating the prediction of an ensemble typically requires more computation than evaluating the prediction of a single model. In one sense, ensemble learning may be thought of as a way to compensate for poor learning algorithms by performing a lot of extra computation. On the other hand, the alternative is to do a lot more learning on one non-ensemble system. An ensemble system may be more efficient at improving overall accuracy for the same increase in compute, storage, or communication resources by using that increase on two or more methods, than would have been improved by increasing resource use for a single method.

Empirically, ensembles tend to yield better results when there is a significant diversity among the models.[5][6] Many ensemble methods, therefore, seek to promote diversity among the models they combine.[7][8] Although perhaps non-intuitive, more random algorithms (like random decision trees) can be used to produce a stronger ensemble than very deliberate algorithms (like entropy-reducing decision trees).[9] Using a variety of strong learning algorithms, however, has been shown to be more effective than using techniques that attempt to dumb-down the models in order to promote diversity.[10]

Created (3 years ago)

Log-posterior

Bayesian methods, #statistics

What's a log-posterior (all the lp__ output from Stan)? It's a number piled on by every variable in the model, and the higher it is, the more likely that the model is good.

Break it down. First, it's similar to the frequentist log-likelihood (Likelihood function), and the log transformation is a convenience thing:

The log likelihood tells you nothing you can't get from the likelihood, but if observations are independent, it is additive. That's often an advantage when you want to differentiate to find a maximum. The reason for logging a posterior is because it is derived partly from the likelihood which, as mentioned above, is additive.

When one compares two models in a Bayesian setup, one can take the ratio of the posteriors. This can be interpreted as the odds for one of the models over the other. If we take the log of the ratio, we get the difference of the log-posteriors. Thus, the log-posterior can be used in model comparison.

In comparison to Frequentist methods, this is not unlike the likelihood ratio tests for model comparisons. The advantages in the Bayesian setting are two: 1) our models do not have to be nested, as they do in the likelihood ratio test; 2) the distribution of the likelihood ratio test is only known asymptotically; the difference in the log-posteriors gives us the distribution for whatever sample size we have.

Created (3 years ago)
Showing 133 to 136