Wahrscheinlichkeitsmaße

Die relative Häufigkeit

Um die relative Häufigkeit eines Ereignisses M bei einem Zufallsexperiment zu bestimmen, wird dieses n mal durchgeführt und gezählt, wie oft das Ereignis M eintritt. Die relative Häufigkeit h(M) ist dabei folgendermaßen definiert:

h(M) = \frac{z(M)}{n}

Die Größe z(M) wird dabei „absolute“ Häufigkeit des Ereignisses M genannt und gibt an, wie häufig das Ereignis M bei dem Zufallsexperiment insgesamt eingetreten ist.

Bei großen Versuchszahlen gilt für die relative Häufigkeit das so genannte Gesetz der großen Zahlen: Die relative Häufigkeit h(M) eines Ereignisses M weicht bei einem genügend großen Wert von n nur wenig von einem bestimmten, für das Ereignis charakteristischen Wert ab.

Besteht die Menge M aus den Elementen \omega _1, \ldots,
\omega_m, so gilt für die relative Häufigkeit bei einer Reihe von n Versuchen:

h(M) = \frac{z(M)}{n} = \frac{z(\{\omega_1\}) + z(\{\omega_2\}) + \ldots +
z(\{\omega_{\mathrm{n}}\})}{n} = h(\{\omega_1\}) + h(\{\omega_2\}) + \ldots +
h(\{\omega_{\mathrm{n}}\})

Die relative Häufigkeit von M ist also gleich der Summe der relativen Häufigkeiten aller Elementarereignisse, die in M enthalten sind.

Allgemein gilt für die relative Häufigkeit stets 0 \le h(M) \le 1, wobei h(M) = 0 für ein unmögliches und h(M) = 1 für ein sicheres Ereignis gilt. Sind zudem zwei Ereignisse M_1 und M_2 unvereinbar, d.h. gilt M_1 \cap M_2 = \emptyset, so gilt h(M_1
\cup (M_2) = h(M_1) + h(M_2).

Die Wahrscheinlichkeit

Als Wahrscheinlichkeit bezeichnet man ein Maß für das Eintreten eines Ereignisses M.

Prinzipiell kann nach dem empirischen Gesetz der großen Zahlen für die Wahrscheinlichkeit folgende Festsetzung genutzt werden:

P(M) = \lim _{n \rightarrow \infty} h(M)

In der Praxis lassen sich jedoch stets nur eine begrenzte Zahl n an Versuchen durchführen. Man definiert den Wahrscheinlichkeitsbegriff daher über folgende Axiome:

Definition:

Eine Abbildung der Form M \subset \mathcal{ P }(\Omega ) \rightarrow P(A) \in
\mathbb{R} heißt Wahrscheinlichkeitsmaß, wenn folgende Eigenschaften („Axiome von Kolmogoroff“) erfüllt sind:

  • Nichtnegativität: Für alle M \in \mathcal{ P }(\Omega) gilt:

    P(M) \ge 0

  • Normiertheit: Ist M = \Omega, so gilt:

    P(\Omega) = 1

  • Additivität: Für M_1 \cap M_2 = \emptyset gilt:

    P(M_1 \cup M_2) = P(M_1) + P(M_2)

    Die Additivität gilt auch für mehrere Ereignisse M_1 ,\, M_2 ,\,
\ldots, wenn diese paarweise unvereinbar sind, d.h. wenn M_i \cap
M_j = \emptyset für i \ne j gilt.

Die Zahl p(M) wird dabei als Wahrscheinlichkeit des Ereignisses M bezeichnet.

Zu einem Zufallsexperiment sind beliebig viele unterschiedliche Wahrscheinlichkeitsmaße denkbar. Welches Maß dabei das „Richtige“ ist, hängt von den physikalischen Gegebenheiten des Experiments ab. Bei einem „normalen“ Würfel erwartet man beispielsweise, dass die Wahrscheinlichkeit P für jede Augenzahl gleich \frac{1}{6} ist; hat der Würfel jedoch kleine Unregelmäßigkeiten, so können diese zur Folge haben, dass nicht mehr alle Elementarereignisse gleich wahrscheinlich sind.

Zusätzlich zu den obigen Axiomen gelten als Folgerungen einige weitere Eigenschaften für Wahrscheinlichkeitsmaße:

  • Ist P(M) die Wahrscheinlichkeit eines Ereignisses M, so ist P(\bar{M}) = 1-P(M) die Wahrscheinlichkeit des Gegenereignisses \bar{M}.[1]
  • Ist M_1 \subset M_2, so gilt P(M_1) \le P(M_2). Diese Eigenschaft wird auch „Monotonieregel“ genannt.[2]
  • Es gilt stets: P(M_1 \cap \bar{M_2}) = P(M_1) - P(M_1 \cap M_2). Diese Eigenschaft wird auch „Zerlegungsregel“ genannt.[3]
  • Es gilt stets: P(M_1 \cup M_2) = P(M_1) + P(M_2) - P(M_1 \cap M_2) Diese Eigenschaft wird auch „Additionsregel“ genannt.[4]

Wahrscheinlichkeit bei Laplace-Experimenten

Sind alle Elementarereignisse gleich wahrscheinlich, so bezeichnet man das Zufallsexperiment als „Laplace-Experiment“. Wahrscheinlichkeiten, die unter dieser Annahme berechnet werden, nennt man entsprechend „Laplace-Wahrscheinlichkeiten“.

Hat ein Laplace-Experiment n Elementarereignisse, d.h. ist |\Omega| = n, so gilt P = \frac{1}{n} für jedes Elementarereignis \{\omega\}. Für ein Ereignis M = \{ \omega _1
,\, \omega _2 ,\, \ldots ,\, \omega_{\mathrm{k}}\} mit k \le n gilt entsprechend:

P(M) = \frac{\text{Anzahl der günstigen Ergebnisse}}{\text{Anzahl der
möglichen Ergebnisse}}= \frac{|M|}{|\Omega|}

Um die Anzahl der günstigen und der möglichen Ergebnisse zu bestimmen, werden üblicherweise Methoden aus der Kombinatorik genutzt.


Anmerkungen:

[1]Dass diese Gleichung gilt, folgt aus 1 = P (\Omega) = P (M \cup
\bar{M}) = P(M) + P(\bar{M}).
[2]

Dass diese Gleichung gilt, lässt sich wegen M_2 = (M_2 \cap
\bar{M_1}) \cup M_1 zeigen:

P(M_2) = P((M_2 \cap \bar{M_1}) \cup M_1) = P(M_2 \cap \bar{M_1}) +
P(M_1)

Wegen 0 \le P(M_2 + \bar{M_1}) folgt P(M_1) \le P(M_2).

[3]Diese Eigenschaft ergibt sich aus M_1 = (M_1 \cap \bar{M_2}) +
(M_1 \cap M_2). Damit gilt ebenfalls P(M_1 \cap \bar{M_2}) = P(M_1) -
P(M_1 \cap M_2).
[4]Diese Eigenschaft gilt wegen P(M_1 \cup M_2) = P(M_1 \cup (M_2
\cap \bar{M_1})) = P(M_1) + P(M_2 \cap \bar{M_1}). Aufgrund der obigen Beziehung gilt zudem P(M_2 \cap \bar{(M_1)}) = P(M_2) - P(M_1 \cap
M_2). Ein Einsetzen der zweiten Gleichung in die erste liefert die Additionsregel.