Ein Missverständnis bei Wahrscheinlichkeiten und ein Zusammenhang zur Euler'schen Zahl

Wahrscheinlichkeiten werden im Alltag verwendet, um zufällige Ereignisse zu beschreiben. Solche zufälligen Ereignisse sind zum Beispiel der Wurf eines Würfels oder die Ziehung der Lottozahlen. Meistens stellen wir uns Wahrscheinlichkeiten getreu den Axiomen aus Kolmogorovs Grundbegriffen  vor. Das bedeutet unter anderem, dass eine Wahrscheinlichkeit eine Zahl zwischen 0 und 1 ist. Kolmogorov gibt jedoch keine Interpretation dieser Werte zwischen 0 und 1. Zwei Möglichkeiten die Kolmogorov'sche Wahrscheinlichkeit zu interpretieren, sind der frequentistische und der Bayes'sche Ansatz. Hierzulande ist die frequentistische Interpretation sicherlich die Bekanntere. Persönlich bekenne ich mich als Anhänger der Bayes'schen Interpretation, auch - aber nicht nur - weil sie Missverständnisse des hier diskutierten Typs nicht zulässt. Auch motiviert durch meine mathematische Forschung, werde ich die Bayes'sche Interpretation zu gegebenem Zeitpunkt sicherlich hier in einem Artikel vorstellen. Bis dahin jedoch zurück zur Frequentistischen.

Die frequentistische Interpretation lautet wie folgt. Wir betrachten ein Ereignis in einem Zufallsexperiment, dass welches wir n-mal unabhängig wiederholen. A(n) beschreibt, wie oft das betrachtete Ereignis bei eben diesen n Durchführungen des Zufallsexperimentes eingetreten ist. Wir bezeichnen

A(n)/

als relative Häufigkeit des Ereignisses bei n Experimenten. Lässt man nun n gegen unendlich gehen, so kann man zeigen, dass der (eigentlich zufällige Wert) A(n)/n gegen einen deterministischen Wert p konvergiert. Diesen Wert p nennt man dann Wahrscheinlichkeit des betrachteten Ereignisses. Eher verständlich und weniger mathematisch könnte man auch sagen: Die Wahrscheinlichkeit eines Ereignisses ist die Rate an eingetretenen Ereignissen pro insgesamt durchgeführter Experimente bei unendlicher und unabhängiger Wiederholung des Experimentes.

Die Krux bei dieser Definition ist offenbar die unendliche Wiederholung. Diese ist nicht nur schwer verständlich, sondern wird im allgemeinen Sprachgebrauch auch weggelassen. Auf Spiegel Online habe ich zum Beispiel nach kurzer Recherche einen Artikel von 2014 gefunden, in dem die Autorin schreibt, dass "auf etwa 30.000 neugeborene Kinder eines kommt, das später [...] erkrankt". Ob ein Neugeborenes daran erkrankt, wird hier also als Ereignis eines Zufallsexperimentes erklärt - ohne Unendlichkeitsannahme. Und bei solchen Erklärungen entsteht das Missverständnis: Lässt man die unendliche Wiederholung weg, so ist die o.g. Definition unsinnig und falsch.

Ein Beispiel. Wir nennen eine Münze fair, falls die Wahrscheinlichkeit, dass Kopf auftritt, sowie die Wahrscheinlichkeit, dass Zahl auftritt, jeweils 0.5 ist. Wirft man eine faire Münze zweimal, so sind mögliche (gleichverteilte) Ergebnisse: (Zahl, Kopf), (Kopf, Zahl), (Zahl, Zahl) und (Kopf, Kopf). Lässt man also die Unendlichkeitsannahme weg, so bedeutet dies entweder, dass zwingend (Zahl, Kopf), (Kopf, Zahl) herauskommen muss, oder dass die Münze nicht fair ist.

Richard von Mises, ein wichtiger Vertreter der frequentistischen Wahrscheinlichkeitstheorie. (CC Lizenz von Konrad Jacobs, Erlangen)


Ein weiteres Beispiel und ein Zusammenhang zur Euler'schen Zahl.

Jeder, der bereits Mensch-ärgere-dich-nicht gespielt hat, der kennt die folgende Situation: Schon sechsmal gewürfelt, und noch immer ist keine sechs gefallen. Von oben wissen wir: Das muss ja auch  - leider - nicht so sein. Aber steckt vielleicht hinter diesem Typ Ereignis eine allgemeine Struktur? Wie hoch ist die Wahrscheinlichkeit bei n-maligem Würfeln mit einem fairen n-seitigen Würfel mindestens einmal die Seite n zu treffen? Naja, die Wahrscheinlichkeit die Seite n zu treffen ist gerade 1/n. Damit ergibt sich (1-1/n)n als Wahrscheinlichkeit bei n Würfen nie die Seite n zu treffen. Die gesuchte Wahrscheinlichkeit (in Abhängigkeit von n) ist damit 

q = 1-(1-1/n)n

Wird nun n immer größer, so wird zwar die Wahrscheinlichkeit für jeden einzelnen Würfelwurf immer kleiner, die Anzahl an Würfelwürfen jedoch immer größer. Geht n gegen unendlich, so konvergiert dieser Wert q sogar, und zwar gegen

1-1/e = 1-exp(-1) = 0.632120559...,

wobei e die Euler'sche Zahl bzw. exp die Exponentialfunktion ist. Dieser Teil dieses Artikels lässt sich damit nun eindeutig zur abgewandten Mathematik zählen. 

In der Anwendung könnte man es so interpretieren: Spielt man Mensch-ärgere-dich-nicht mit vier Personen und sehr großen n-seitigen Würfeln, so schaffen es nur zwei bis drei der vier Spieler nach n Würfelwürfen einen Spieler auf das Feld zu setzen. Nein. Das ist natürlich Blödsinn. Hier beißt die frequentistische Katze sich in ihren Schwanz. Und ich sollte in diesem Blog wohl wirklich mal Bayes erklären.

Kommentare

  1. Schöner Text. Wahrscheinlichkeiten sind zu abstrakt für unsere Intuition. 50% als '1 aus 2' zu beschreiben klingt intuitiv plausibel, hört sich aber eher determiniert als zufällig an. Korrekt wäre 'bei steigender Anzahl an Wiederholungen nähert sich das Verhältnis von Kopf zu Zahl 1:1 an'. ...Mir fällt auch gerade keine kürzere Version ein. Und die Varianz außen vor zu lassen ist nochmal ne ganz andere Geschichte...

    Apropos Zufall, findest du einen fairen Würfel wirklich fair? "Das Essen wurde fair per Würfel verteilt, da kann sich jetzt keiner beschweren." :D

    AntwortenLöschen
  2. Danke! Ja, das ist wohl auch der Grund, warum ich diesen Wahrscheinlichkeitsbegriff nicht besonders mag. Er ist in gewisser Weise sehr natürlich und bietet einen direkten Zugang zum Gesetz großer Zahlen.

    :D Fair bezieht sich wohl darauf, dass man ein Würfelspiel mit diesem Würfel als fair bezeichnen würde.

    PS. DER Laplace?

    AntwortenLöschen

Kommentar veröffentlichen

Beliebte Posts aus diesem Blog

Regenschirme erzeugen Regen?

Quantenphysik in der Homöopathie?

Lass uns spielen, aber warum?