Lemma von Stein

Aussage in der Testtheorie, einem Teilgebiet der mathematischen Statistik

Das Lemma von Stein ist in der Testtheorie, einem Teilgebiet der mathematischen Statistik, eine Aussage darüber, wie sich die Wahrscheinlichkeit für einen Fehler 2. Art bei Neyman-Pearson-Tests für größer werdende Stichproben verändert.

Die Aussage ist nach Charles Stein benannt, der sie 1952 bewies.

Rahmenbedingungen

Bearbeiten

Gegeben sei ein statistisches Modell   mit einfacher Nullhypothese   und einfacher Alternative  , für die beide die Wahrscheinlichkeitsdichtefunktionen   und   existieren und echt positiv sind. Des Weiteren sei   das entsprechende unendliche Produktmodell und   die Projektion auf die Komponenten des Produktmodells.

Sei   ein Neyman-Pearson-Test zum Niveau  , der nur von   abhängt. Des Weiteren bezeichne

 

die Kullback-Leibler-Entropie von   und  

Unter den obigen Bedingungen gilt: Die Trennschärfe von   strebt mit exponentieller Geschwindigkeit gegen 1. Genauer gilt

 

für große  .

Interpretation

Bearbeiten

Nach dem Neyman-Pearson-Lemma sind Neyman-Pearson-Tests gleichmäßig beste Tests, haben also eine größere Trennschärfe als jeder weitere Test zum selben Niveau. Das Lemma von Stein ergänzt diese Aussage noch, indem es angibt, wie groß die Trennschärfe wird. Somit sind Neyman-Pearson-Tests nicht nur gleichmäßig besser als jeder andere Test, sondern auch noch gut in dem Sinne, dass ihre Trennschärfe beliebig nahe an 1 herankommt sowie dass dies sehr schnell mit wachsender Stichprobengröße geschieht.

Bestimmender Faktor bei der Konvergenzgeschwindigkeit ist die Kullback-Leibler-Entropie. Sie liefert ein Maß dafür, wie gut zwei Wahrscheinlichkeitsmaße aufgrund einer Stichprobe auseinandergehalten werden können.

Literatur

Bearbeiten