Estimat for maksimal sannsynlighet

Innholdsfortegnelse:

Anonim

Maximum Likelihood Estimate (VLE) er en generell modell for estimering av parametere for en sannsynlighetsfordeling som avhenger av observasjonene i utvalget.

Med andre ord maksimerer EMV sannsynligheten for parametrene for tetthetsfunksjonene som avhenger av sannsynlighetsfordelingen og observasjonene i prøven.

Når vi snakker om estimering av maksimal sannsynlighet, må vi snakke om funksjon maksimal sannsynlighet. Matematisk gitt en prøve x = (x1, …, Xn) og parametere, θ = (θ1,…, Θn) deretter,

Ikke få panikk! Dette symbolet betyr det samme som summasjonen. I dette tilfellet er det multiplikasjonen av alle tetthetsfunksjoner som avhenger av prøveobservasjonene (xJeg) og parametrene θ.

Jo større verdien av L (θ | x), det vil si verdien av maksimal sannsynlighetsfunksjon, desto mer sannsynlig vil prøvebaserte parametere være.

Logaritmisk funksjon av EMV

For å finne maksimale sannsynlighetsestimater må vi differensiere (utlede) produktene av tetthetsfunksjoner, og dette er ikke den mest behagelige måten å gjøre det på.

Når vi kommer over kompliserte funksjoner, er det vi kan gjøre en ensformig transformasjon. Med andre ord vil det være som å ønske å tegne Europa i reell skala. Vi bør skalere den ned slik at den får plass på et ark.

I dette tilfellet gjør vi den monotone transformasjonen ved hjelp av naturlige logaritmer siden de er monotone og øker funksjonene. Matematisk,

Egenskapene til logaritmer tillater oss å uttrykke multiplikasjonen ovenfor som summen av naturlige logaritmer som brukes på tetthetsfunksjonene.

Så den monotone transformasjonen av logaritmer er ganske enkelt en "skalaendring" til mindre tall.

Den estimerte verdien av parametrene som maksimerer sannsynligheten for parametrene for maksimal sannsynlighetsfunksjon med logaritmer tilsvarer den estimerte verdien av parametrene som maksimerer sannsynligheten for parametrene til den opprinnelige maksimale sannsynlighetsfunksjonen.

Så, vi kommer alltid til å takle den monotone modifiseringen av maksimal sannsynlighetsfunksjon gitt den større lette beregningen.

Nysgjerrighet

Så komplisert og rart som EMV kan virke, bruker vi det kontinuerlig uten å innse det.

Når?

I alle estimatene av parametrene for en lineær regresjon under klassiske forutsetninger. Mer kjent som Ordinary Least Squares (OLS).

Med andre ord, når vi bruker OLS, bruker vi EMV implisitt siden begge er ekvivalente når det gjelder konsistens.

App

Som andre metoder er EMV basert på iterasjon. Det vil si å gjenta en bestemt operasjon så mange ganger som nødvendig for å finne maksimums- eller minimumsverdien til en funksjon. Denne prosessen kan være underlagt restriksjoner på de endelige verdiene til parametrene. For eksempel at resultatet er større enn eller lik null, eller at summen av to parametere må være mindre enn en.

Den symmetriske GARCH-modellen og dens forskjellige utvidelser bruker EMV for å finne den estimerte verdien av parametrene som maksimerer sannsynligheten for parametrene til tetthetsfunksjonene.