Der „Berk-Jones-Test“ (oder „BJ-Test“) bezieht sich auf eine Klasse nichtparametrischer statistischer Tests zur Anpassungsgüte, mit denen ermittelt wird, ob ein Satz beobachteter Daten einer bestimmten Wahrscheinlichkeitsverteilung folgt. Der 1979 von Robert H. Berk und Douglas H. Jones eingeführte Test ist speziell darauf ausgelegt, in den Endbereichen der Verteilung leistungsfähiger zu sein als der Kolmogorov-Smirnov-Test.
==Hintergrund==
Beim statistischen Hypothesentest vergleicht ein Anpassungstest eine empirische Verteilungsfunktion (EDF) mit einer theoretischen kumulativen Verteilungsfunktion (CDF). Obwohl der Kolmogorov-Smirnov-Test wohl die bekannteste Methode ist, wird er oft wegen seiner mangelnden Empfindlichkeit gegenüber Abweichungen kritisiert, die an den Extremen (Enden) der Verteilung auftreten.
Der Berk-Jones-Test behebt diesen Mangel, indem er einen „punktuellen“ Maximum-Likelihood-Ratio-Ansatz anwendet. Sie gehört immer noch zur Familie der Supremum-Statistik, beinhaltet aber auch informationstheoretische Eigenschaften, insbesondere die Kullback-Leibler-Divergenz.
==Mathematische Formulierung==
Seien X_1,X_2,\dots,X_n unabhängige und identisch verteilte (i.i.d.) Zufallsvariablen mit einer empirischen Verteilungsfunktion \mathbb{F}_n(x). Wir möchten die Nullhypothese H_0: F = F_0 testen.
Die Berk-Jones-Statistik R_n ist definiert als:
:R_n = \sup_{x} K(\mathbb{F}_n(x), F_0(x))
Dabei ist K(p,q) die binäre Kullback-Leibler-Divergenz (oder relative Entropie), definiert als:
:K(p,q) = p \log \left(\frac{p}{q}\right) + \left(1-p\right)\log\left(\frac{1-p}{1-q}\right)
Die Statistik kann auch als Ordnungsstatistik X_{(1)} < X_{(2)} < \cdots
[h4] Der „Berk-Jones-Test“ (oder „BJ-Test“) bezieht sich auf eine Klasse nichtparametrischer statistischer Tests zur Anpassungsgüte, mit denen ermittelt wird, ob ein Satz beobachteter Daten einer bestimmten Wahrscheinlichkeitsverteilung folgt. Der 1979 von Robert H. Berk und Douglas H. Jones eingeführte Test ist speziell darauf ausgelegt, in den Endbereichen der Verteilung leistungsfähiger zu [url=viewtopic.php?t=13583]sein[/url] als der Kolmogorov-Smirnov-Test. ==Hintergrund== Beim statistischen Hypothesentest vergleicht ein Anpassungstest eine empirische Verteilungsfunktion (EDF) mit einer theoretischen kumulativen Verteilungsfunktion (CDF). Obwohl der Kolmogorov-Smirnov-Test wohl die bekannteste Methode ist, wird er oft wegen seiner mangelnden Empfindlichkeit gegenüber Abweichungen kritisiert, die an den Extremen (Enden) der Verteilung auftreten.
Der Berk-Jones-Test behebt diesen Mangel, indem er einen „punktuellen“ Maximum-Likelihood-Ratio-Ansatz anwendet. Sie gehört immer noch zur Familie der Supremum-Statistik, beinhaltet aber auch informationstheoretische Eigenschaften, insbesondere die Kullback-Leibler-Divergenz.
==Mathematische Formulierung== Seien X_1,X_2,\dots,X_n unabhängige und identisch verteilte (i.i.d.) Zufallsvariablen mit einer empirischen Verteilungsfunktion \mathbb{F}_n(x). Wir möchten die Nullhypothese H_0: F = F_0 testen.
Die Berk-Jones-Statistik R_n ist definiert als: :R_n = \sup_{x} K(\mathbb{F}_n(x), F_0(x)) Dabei ist K(p,q) die binäre Kullback-Leibler-Divergenz (oder relative Entropie), definiert als: :K(p,q) = p \log \left(\frac{p}{q}\right) + \left(1-p\right)\log\left(\frac{1-p}{1-q}\right) Die Statistik kann auch als Ordnungsstatistik X_{(1)} < X_{(2)} < \cdots
Die „Social Studies“ der University Interscholastic League sind einer von mehreren akademischen Wettbewerben, die von der UIL genehmigt wurden. Der Wettbewerb begann im Schuljahr 2003–2004 und wird...