Theorie:
Um nicht jedes Mal alle möglichen Vorbedingungen durchrechnen zu müssen können wir bedingte Wahrscheinlichkeiten auch direkt berechnen:
P(A|B) = \frac{P(A, B)}{P(B)} bzw.
P(B|A) = \frac{P(A, B)}{P(A)}.
Durch Verbinden dieser beiden Gleichungen können wir eine dieser beiden bedingten Wahrscheinlichkeiten durch die andere ausdrücken. Dies ist der sogenannte Satz von Bayes:
Satz von Bayes:
Die bedingte Wahrscheinlichkeit P(A|B) für das Ergebnis A unter der Bedingung B lässt sich durch die bedingte Wahrscheinlichkeit für B unter der Bedingung A ausdrücken als
P(B|A) = \frac{P(A| B)\cdot P(B)}{P(A)}.
Die bedingte Wahrscheinlichkeit P(A|B) für das Ergebnis A unter der Bedingung B lässt sich durch die bedingte Wahrscheinlichkeit für B unter der Bedingung A ausdrücken als
P(B|A) = \frac{P(A| B)\cdot P(B)}{P(A)}.
Beispiel:
Wir versuchen, eine zufällig gewählte Ziffer (also eine einstellige Zahl) zu erraten. Da wir nichts über die Zahl wissen, ist jeder Tipp gleichermaßen wahrscheinlich (mit einer Wahrscheinlichkeit von je \frac 1 {10}.
Bekommen wir jedoch den Hinweis, dass die Zahl z.B. größer als 6 ist, so haben wir zwei verschiedene Möglichkeiten:
- Tippen wir auf eine Zahl, die höchstens 6 ist, liegen wir mit der Wahrscheinlichkeit
P(X = x \leq 6\ |\ X > 6) = \frac{P(X = x \leq 6,\ X> 6)}{P(X > 6} = \frac{0}{0,3} = 0
richtig. Mit anderen Worten: Wir liegen absolut sicher falsch. - Tippen wir hingegen auf eine Zahl über 6, so haben wir eine Erfolgswahrscheinlichkeit von
P(X = x > 6\ |\ X > 6) = \frac{P(X = x > 6,\ X > 6)}{P(X>6)} = \frac{0,1}{0,3} = \frac 1 3 = 33,\dot 3\ \%.