Aannemelijkheidsquotiënttoets

Uit testwiki
Naar navigatie springen Naar zoeken springen

In de statistiek is een aannemelijkheidsquotiënttoets, vaak ook aangeduid met de Engelse term likelihood-ratiotest, een parametrische toets die als toetsingsgrootheid een aannemelijkheidsquotiënt, of een functie daarvan, heeft. De toets vergelijkt de aannemelijkheid van de parameterwaarde(n) onder de nulhypothese met de aannemelijkheid van de waarde(n) onder de alternatieve hypothese en verwerpt de nulhypothese als de parameterwaarde(n) onder de alternatieve hypothese significant aannemelijker zijn dan die onder de nulhypothese. Veel klassieke toetsen, zoals de F-toets en de t-toets voor twee steekproeven kunnen als aannemelijkheidsquotiënttoets beschouwd worden.

Enkelvoudige hypothesen

In het eenvoudige geval van een enkelvoudige nul- en alternatieve hypothese

H0:θ=θ0

tegen

H1:θ=θ1(θ1θ0),

is de toetsingsgrootheid van de aannemelijkheidsquotiënttoets gegeven door het aannemelijkheidsquotiënt[1][2] (verondersteld dat dit goed gedefinieerd is)

Λ(x1,,xn)=L(θ0|x1,,xn)L(θ1|x1,,xn)=fθ0(x1,,xn)fθ1(x1,,xn)

of equivalent door

Λ(x1,,xn)=L(θ0|x1,,xn)sup{L(θ|x1,,xn):θ{θ0,θ1}},

waarin L de aannemelijkheidsfunctie is en fθ de betrokken kansfunctie of kansdichtheid.

De nulhypothese wordt verworpen voor kleine waarden van het aannemelijkheidsquotiënt, immers in die gevallen is de alternatieve waarde θ1 van de parameter aannemelijker dan de waarde θ0. Het kritieke gebied is dus:

{(x1,,xn)|Λ(x1,,xn)<c}

Volgens het lemma van Neyman en Pearson is deze aannemelijkheidsquotiënttoets de meest onderscheidende toets onder de toetsen met dezelfde onbetrouwbaarheid (statistiek).

Samengestelde hypothesen

In het algemeen hebben de nul- en alternatieve hypothese de vorm

H0:θΘ0

tegen

H1:θΘ1(Θ1Θ0=)

Daarbij zullen in veel gevallen Θ0 en Θ1 een partitie vormen van de parameterruitme Θ, zodat Θ1 het complement is van Θ0.

De toetsingsgrootheid van de aannemelijkheidsquotiënttoets wordt gegeven door het quotiënt

Λ(x1,,xn)=supθΘ0L(θ|x1,,xn)supθΘL(θ|x1,,xn),

waarin

L(θ|x1,,xn)=fθ(x1,,xn)

de aannemelijkheidsfunctie is, met fθ de betrokken kansfunctie of kansdichtheid.[3]

De nulhypothese wordt ook hier verworpen voor kleine waarden van het aannemelijkheidsquotiënt. Het kritieke gebied is dus:

{(x1,,xn)|Λ(x1,,xn)<c}

Opmerking

Sommige auteurs definiëren op equivalente wijze het aannemelijkheidsquotiënt als het omgekeerde van het hier gedefinieerde.[4]

Verdeling onder de nulhypothese

Voor het bepalen van de bovengenoemde kritieke waarde c is de verdeling onder de nulhypothese nodig van de toetsingsgrootheid Λ. In veel gevallen is deze verdeling zeer moeilijk te bepalen of niet exact bekend, maar is wel een asymptotische benadering mogelijk.

Logaritme

In veel gevallen zal de toets uitgevoerd worden met een aselecte steekproef. Dan is de simultane verdeling bepaald door:

fθ(x1,,xn)=fθ(x1)fθ(xn)

Het is dan veelal eenvoudiger om te werken met de logaritme van de aannemelijkheidsfunctie:

logL(θ|x1,,xn)=logfθ(x1,,xn)=log(fθ(x1)fθ(xn))=logfθ(x1)++logfθ(xn)

Omdat de logaritme monotoon stijgend is, zal de toets gebaseerd op de logaritme van het aannemelijkheidsquotiënt equivalent zijn met de aannemelijkheidsquotiënttoets zelf.

Voorbeeld

De stochastische variabelen X1,,Xn vormen een aselecte steekproef uit een normale verdeling met bekende variantie σ2 en onbekende verwachtingswaarde μ. Voor het toetsen van

H0:μ=μ0

tegen

H1:μ=μ1<μ0

met de aannemelijkheidsquotiënttoets is de toetsingsgrootheid:

Λ(X1,,Xn)=exp(12σ2i=1n((Xiμ1)2(Xiμ0)2))=
=exp(1σ2i=1nXi(μ0μ1))exp(n2σ2(μ02μ12))

De nulhypothese wordt verworpen voor kleine waarden van Λ, wat erop neerkomt dat

i=1nXi<c

of equivalent

X¯<c,

wat de bekende Gauß-toets oplevert.

In dit geval zou ook goed de logaritme van het aannemelijkheidsquotiënt gebruikt kunnen worden:

logΛ(X1,,Xn)=1σ2i=1nXi(μ0μ1)n2σ2(μ02μ12)

Zie ook

Referenties

Sjabloon:Appendix

  1. Mood, A.M.; Graybill, F.A. (1963) Introduction to the Theory of Statistics, 2nd edition. McGraw-Hill Sjabloon:ISBN (blz. 286)
  2. Kendall, M.G., Stuart, A. (1973) The Advanced Theory of Statistics, Volume 2, Griffin. Sjabloon:ISBN (blz. 234)
  3. Casella, George; Berger, Roger L. (2001) Statistical Inference, Second edition. Sjabloon:ISBN (blz. 375)
  4. Cox, D. R. and Hinkley, D. V Theoretical Statistics, Chapman and Hall, 1974. (blz. 92)