Zentraler Grenzwertsatz von Lindeberg-Feller

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Der zentrale Grenzwertsatz von Lindeberg-Feller[1], auch Grenzverteilungssatz von Lindeberg-Feller[2] genannt, ist ein mathematischer Satz der Wahrscheinlichkeitstheorie. Er gehört zu den zentralen Grenzwertsätzen und somit auch den Grenzwertsätzen der Stochastik und ist eine Verallgemeinerung des zentralen Grenzwertsatzes von Lindeberg-Lévy. Dieser besagt, dass unter gewissen Voraussetzungen die normierten Mittelwerte von Zufallsvariablen in Verteilung gegen die Standardnormalverteilung konvergieren. Der zentrale Grenzwertsatz von Lindeberg-Feller schwächt diese Voraussetzungen ab, indem er auf Schemata von Zufallsvariablen zurückgreift, bei denen sogar ein gewisses Maß an stochastischer Abhängigkeit zwischen den Zufallsvariablen erlaubt ist. Der Satz ist nach Jarl Waldemar Lindeberg und William Feller benannt. Teils wird der Satz auch in seine Teilaussagen zerlegt. Dabei wird die eine Implikation dann als Lindeberg-Theorem[3] oder zentraler Grenzverteilungssatz von Lindeberg[4] bezeichnet, die andere als Satz von Feller.[5]

Rahmenbedingungen

[Bearbeiten | Quelltext bearbeiten]

Bei dem gewöhnlichen Grenzwertsatz wird immer gefordert, dass die betrachtete Folge von Zufallsvariablen stochastisch unabhängige Zufallsvariablen und die Varianzen endlich sind. Bei schwächeren Formulierungen wird außerdem gefordert, dass die Zufallsvariablen identisch verteilt sind. Diese Forderung kann man allerdings durch die Lindeberg-Bedingung (für Folgen) und die Ljapunow-Bedingung (für Folgen) ersetzen.

Nun stellt sich die Frage, ob man die Voraussetzungen für den Satz weiter abschwächen kann und ein gewisses Maß an Abhängigkeit möglich ist. Diese Frage lässt sich positiv beantworten. Dazu definiert man ein sogenanntes Schema von Zufallsvariablen. Dieses entspricht einer Folge von Kleingruppen von Zufallsvariablen. Jede dieser Kleingruppen von Zufallsvariablen hat Elemente. Formal werden Schemata von Zufallsvariablen als Folge von diesen Kleingruppen unter Verwendung von Doppelindizes definiert. Nun kann man zeigen, dass (unter gewissen weiteren Voraussetzungen) es für die Konvergenz ausreichend ist, die Unabhängigkeit der Zufallsvariablen nur innerhalb der Kleingruppen zu fordern. Die Beziehungen der Zufallsvariablen zwischen unterschiedlichen Kleingruppen spielen keine Rolle.

Gegeben sei ein Schema von Zufallsvariablen und sei

.

Außerdem sei ein normiertes, zentriertes und unabhängiges Schema.

Dann gilt die Lindeberg-Bedingung (für Schemata von Zufallsvariablen) genau dann, wenn ein asymptotisch vernachlässigbares Schema ist und die Verteilung von in Verteilung gegen die Standardnormalverteilung konvergiert, also gilt.

Da aus der Ljapunow-Bedingung (für Schemata) die Lindeberg-Bedingung folgt, kann man aus der Ljapunow-Bedingung auf die Konvergenz in Verteilung und die asymptotische Vernachlässigbarkeit schließen. Die Rückrichtung ist aber im Allgemeinen falsch, da aus der Lindeberg-Bedingung nicht notwendigerweise die Ljapunow-Bedingung folgt.

Der Beweis des Satzes folgte in zwei Teilen. Dabei entsprach jeder Teil einer Implikation der oben formulierten Äquivalenz. Der Schluss von der Lindeberg-Bedingung auf die Konvergenz in Verteilung und die asymptotische Vernachlässigbarkeit wurde von Jarl Waldemar Lindeberg 1922 gezeigt. Dieser Teil ist meist interessanter für die Anwendungen und trägt teilweise den eigenständigen Namen Lindeberg-Theorem. Die Rückrichtung (Satz von Feller) wurde dann von William Feller 1935 und 1937 bewiesen.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 328.
  2. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 307.
  3. Meintrup, Schäffler: Stochastik. 2005, S. 204.
  4. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 311.
  5. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 312.