Gesetz der großen Zahlen

Gesetz der großen Zahlen Definition

Das Gesetz der großen Zahlen besagt, dass es mit zunehmender Zahl der Experimentsdurchführungen immer wahrscheinlicher wird, dass sich die so ermittelte relative Häufigkeit dem "echten" Wahrscheinlichkeitswert annähert.

Beispiel

Wir wissen, dass bei einem Münzwurf (mit einer normalen, fairen Münze) die Wahrscheinlichkeit für "Zahl" 0,5 bzw. 50 % ist (ebenso für "Kopf"). Bei vielen Sachverhalten kennt man aber die Wahrscheinlichkeiten nicht und muss diese erst ermitteln. Dazu werden Stichproben gezogen bzw. Zufallsexperimente wiederholt durchgeführt.

Würde man dies auf den Münzwurf anwenden und eine Münze z.B. zweimal werfen, kann es durchaus sein, dass 2 mal "Zahl" kommt (die Wahrscheinlichkeit dafür ist 0,5 × 0,5 = 0,25 = 25 %, also gar nicht so gering).

Der (nur) zweimalige Versuch würde uns annehmen lassen, dass beim Münzwurf immer "Zahl" kommt bzw. die Wahrscheinlichkeit dafür 100 % ist – und das ist natürlich nicht so.

Das Gesetz der großen Zahlen besagt nun, dass je häufiger man die Münze wirft (z.B. 10.000 mal), umso mehr zu erwarten ist, dass die empirische Häufigkeit auch der tatsächlichen Wahrscheinlichkeit von 0,5 bzw. 50 % entspricht.

Man kann also durch häufiges Wiederholen eines Experiments bzw. durch große Stichproben bisher unbekannte Wahrscheinlichkeiten empirisch abschätzen bzw. ermitteln.