Kapitel III: Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit

III.1 Wiederholung: Mehrstufige Zufallsexperimente

Baumdiagramm und Pfadregeln

Ein Baumdiagramm stellt ein mehrstufiges Zufallsexperiment übersichtlich dar. An jedem Ast steht die Wahrscheinlichkeit für diesen Ausgang.

Pfadregel 1 (Produktregel): Die Wahrscheinlichkeit eines Ergebnisses ist das Produkt aller Wahrscheinlichkeiten entlang des Pfades: P(Pfad)=p1p2pnP(\text{Pfad}) = p_1 \cdot p_2 \cdots p_n

Pfadregel 2 (Summenregel): Die Wahrscheinlichkeit eines Ereignisses ist die Summe der Wahrscheinlichkeiten aller zugehörigen Pfade: P(A)=Pfade zu AP(Pfad)P(A) = \sum_{\text{Pfade zu } A} P(\text{Pfad})

Ziehen ohne Zurücklegen als Übergang

Beim Ziehen ohne Zurücklegen hängt die Wahrscheinlichkeit im zweiten Zug davon ab, was im ersten Zug gezogen wurde — das Ergebnis des ersten Zugs verändert die Ausgangssituation.

Beispiel: Urne mit 4 roten (R) und 2 blauen (B) Kugeln, zweimaliges Ziehen ohne Zurücklegen:

Baumdiagramm: Ziehen ohne Zurücklegen — die Wahrscheinlichkeiten im 2. Zug hängen vom 1. Zug ab

Die Übergangswahrscheinlichkeiten im zweiten Zug (35\frac{3}{5}, 25\frac{2}{5}, 45\frac{4}{5}, 15\frac{1}{5}) sind bereits bedingte Wahrscheinlichkeiten — das ist die zentrale Idee dieses Kapitels.

Gegenereignis

Für jedes Ereignis AA gilt: P(A)=1P(A)P(\bar{A}) = 1 - P(A)


III.2 Bedingte Wahrscheinlichkeit

Motivation

Situation: In einer Fabrik produzieren zwei Maschinen Bauteile. Maschine M1 liefert 60%60\,\% aller Teile, Maschine M2 liefert 40%40\,\%. Von den Teilen aus M1 sind 3%3\,\% defekt, von denen aus M2 sind 5%5\,\% defekt.

Ein zufällig ausgewähltes Teil ist defekt. Wie groß ist die Wahrscheinlichkeit, dass es von M1 stammt?

Um diese Frage zu beantworten, benötigt man die bedingte Wahrscheinlichkeit.

Definition

Die bedingte Wahrscheinlichkeit von BB unter der Bedingung AA — geschrieben PA(B)P_A(B) — gibt an, wie wahrscheinlich BB ist, wenn bereits bekannt ist, dass AA eingetreten ist:

PA(B)=P(AB)P(A)für P(A)>0\boxed{P_A(B) = \frac{P(A \cap B)}{P(A)}} \qquad \text{für } P(A) > 0

Andere Schreibweise: P(BA)P(B \mid A) (lies: „Wahrscheinlichkeit von BB gegeben AA“)

Multiplikationssatz

Umgestellt ergibt die Definition den Multiplikationssatz: P(AB)=P(A)PA(B)P(A \cap B) = P(A) \cdot P_A(B)

Das ist genau die Pfadregel 1 — die Äste im Baumdiagramm zeigen immer bedingte Wahrscheinlichkeiten.

Bedingte Wahrscheinlichkeit im Baumdiagramm

Im Baumdiagramm lässt sich PA(B)P_A(B) direkt ablesen: Es ist die Übergangswahrscheinlichkeit am Ast von AA zu BB.

Fabrik-Beispiel: Baumdiagramm mit bedingten Wahrscheinlichkeiten an den Ästen

Aus dem Baum lässt sich direkt ablesen: - P(D)=0,018+0,020=0,038P(\text{D}) = 0{,}018 + 0{,}020 = 0{,}038 - PM1(D)=0,03P_{\text{M1}}(\text{D}) = 0{,}03 (Ast-Beschriftung) - P(M1D)=0,60,03=0,018P(\text{M1} \cap \text{D}) = 0{,}6 \cdot 0{,}03 = 0{,}018

Unterschied zwischen PA(B)P_A(B), PB(A)P_B(A) und P(AB)P(A \cap B)

Diese drei Größen sind im Allgemeinen verschieden und beschreiben unterschiedliche Sachverhalte:

Größe Bedeutung Wert im Beispiel
P(M1D)P(\text{M1} \cap \text{D}) Teil stammt von M1 und ist defekt 0,0180{,}018
PM1(D)P_{\text{M1}}(\text{D}) Teil ist defekt, gegeben es stammt von M1 0,030{,}03
PD(M1)P_{\text{D}}(\text{M1}) Teil stammt von M1, gegeben es ist defekt 0,47\approx 0{,}47

Die letzte Größe berechnen wir in III.5.


III.3 Vierfeldertafel

Die Vierfeldertafel ist eine kompakte Darstellung aller Wahrscheinlichkeiten für zwei Ereignisse AA und A\bar{A} sowie BB und B\bar{B}.

Aufbau

BBΣAP(AB)P(AB)P(A)AP(AB)P(AB)P(A)ΣP(B)P(B)1\begin{array}{c|cc|c} & B & \bar{B} & \Sigma \\\hline A & P(A \cap B) & P(A \cap \bar{B}) & P(A) \\ \bar{A} & P(\bar{A} \cap B) & P(\bar{A} \cap \bar{B}) & P(\bar{A}) \\\hline \Sigma & P(B) & P(\bar{B}) & 1 \end{array}

Jede Zeile und Spalte summiert sich auf den Rand — daher heißen die Summen Randwahrscheinlichkeiten.

Befüllen der Vierfeldertafel

Im Fabrik-Beispiel mit A=M1A = \text{M1}, B=DB = \text{D} (defekt):

DD¯ΣM10,0180,5820,6M20,0200,3800,4Σ0,0380,9621\begin{array}{c|cc|c} & \text{D} & \overline{\text{D}} & \Sigma \\\hline \text{M1} & 0{,}018 & 0{,}582 & 0{,}6 \\ \text{M2} & 0{,}020 & 0{,}380 & 0{,}4 \\\hline \Sigma & 0{,}038 & 0{,}962 & 1 \end{array}

Vorgehen: Bekannte Werte eintragen, fehlende durch Addition/Subtraktion ergänzen.

Bedingte Wahrscheinlichkeiten ablesen

Aus der Vierfeldertafel lassen sich bedingte Wahrscheinlichkeiten direkt berechnen:

PA(B)=P(AB)P(A)=ZelleZeilensumme,PB(A)=P(AB)P(B)=ZelleSpaltensummeP_A(B) = \frac{P(A \cap B)}{P(A)} = \frac{\text{Zelle}}{\text{Zeilensumme}}, \qquad P_B(A) = \frac{P(A \cap B)}{P(B)} = \frac{\text{Zelle}}{\text{Spaltensumme}}

Vierfeldertafel mit absoluten Häufigkeiten

Statt Wahrscheinlichkeiten können auch absolute Häufigkeiten eingetragen werden (z.B. bei Umfragen). Die Berechnung bedingter Wahrscheinlichkeiten funktioniert gleich:

PA(B)=h(AB)h(A)P_A(B) = \frac{h(A \cap B)}{h(A)}

Beispiel: In einer Schulklasse von 30 Schülerinnen und Schülern: 18 haben ein Haustier (HH), 12 nicht. Von den 18 mit Haustier sind 14 auch in einem Sportverein (SS).

SSΣH14418H5712Σ191130\begin{array}{c|cc|c} & S & \bar{S} & \Sigma \\\hline H & 14 & 4 & 18 \\ \bar{H} & 5 & 7 & 12 \\\hline \Sigma & 19 & 11 & 30 \end{array}

PH(S)=14180,78PS(H)=14190,74P_H(S) = \frac{14}{18} \approx 0{,}78 \qquad P_S(H) = \frac{14}{19} \approx 0{,}74

Übergang zwischen Baumdiagramm und Vierfeldertafel

Beide Darstellungen sind äquivalent — man kann jederzeit zwischen ihnen wechseln:

  • Baum → Tafel: Pfadwahrscheinlichkeiten in die inneren Felder eintragen, Ränder summieren
  • Tafel → Baum: Randwahrscheinlichkeiten als erste Stufe, bedingte Wahrscheinlichkeiten (ZelleRand\frac{\text{Zelle}}{\text{Rand}}) als zweite Stufe

III.4 Stochastische Unabhängigkeit

Definition

Zwei Ereignisse AA und BB heißen stochastisch unabhängig, wenn das Eintreten von AA die Wahrscheinlichkeit von BB nicht verändert:

PA(B)=P(B)\boxed{P_A(B) = P(B)}

Das bedeutet: Ob AA eingetreten ist oder nicht — BB tritt mit derselben Wahrscheinlichkeit ein.

Äquivalente Bedingung

Aus der Definition folgt mit dem Multiplikationssatz eine praktischere Formulierung:

PA(B)=P(B)P(AB)=P(A)P(B)P_A(B) = P(B) \iff P(A \cap B) = P(A) \cdot P(B)

Diese Bedingung ist symmetrisch: Wenn AA und BB unabhängig sind, gilt automatisch auch PB(A)=P(A)P_B(A) = P(A).

Unabhängigkeit rechnerisch prüfen

Vorgehen: P(AB)P(A \cap B) berechnen und mit P(A)P(B)P(A) \cdot P(B) vergleichen.

Beispiel: Zweimaliges Werfen einer fairen Münze. AA = „erstes Mal Kopf”, BB = „zweites Mal Kopf”.

P(A)=12,P(B)=12,P(AB)=14P(A) = \frac{1}{2}, \quad P(B) = \frac{1}{2}, \quad P(A \cap B) = \frac{1}{4}

P(A)P(B)=1212=14=P(AB)P(A) \cdot P(B) = \frac{1}{2} \cdot \frac{1}{2} = \frac{1}{4} = P(A \cap B) \quad \checkmark

AA und BB sind unabhängig.

Gegenbeispiel: Ziehen ohne Zurücklegen (s. III.1). Sei AA = „erste Kugel rot”, BB = „zweite Kugel rot”.

P(A)=46,P(B)=4635+2645=1230+830=2030=23P(A) = \frac{4}{6}, \quad P(B) = \frac{4}{6} \cdot \frac{3}{5} + \frac{2}{6} \cdot \frac{4}{5} = \frac{12}{30} + \frac{8}{30} = \frac{20}{30} = \frac{2}{3}

P(AB)=4635=1230=25P(A \cap B) = \frac{4}{6} \cdot \frac{3}{5} = \frac{12}{30} = \frac{2}{5}

P(A)P(B)=4623=818=4925P(A) \cdot P(B) = \frac{4}{6} \cdot \frac{2}{3} = \frac{8}{18} = \frac{4}{9} \neq \frac{2}{5}

AA und BB sind abhängig (wie erwartet: was man zuerst zieht, beeinflusst den zweiten Zug).

Unabhängigkeit vs. Unvereinbarkeit

Ein häufiger Denkfehler: Unabhängigkeit und Unvereinbarkeit sind nicht dasselbe.

Unabhängig Unvereinbar
Bedingung P(AB)=P(A)P(B)P(A \cap B) = P(A) \cdot P(B) P(AB)=0P(A \cap B) = 0
Bedeutung AA beeinflusst BB nicht AA und BB können nicht gleichzeitig eintreten
Beispiel zwei Münzwürfe „Kopf” und „Zahl” beim selben Wurf

Zwei unvereinbare Ereignisse mit P(A)>0P(A) > 0 und P(B)>0P(B) > 0 sind niemals unabhängig — denn wenn AA eintritt, kann BB nicht eintreten, also PA(B)=0P(B)P_A(B) = 0 \neq P(B).


III.5 Schlussfolgerungen und Dateninterpretation

Umkehrung des Baumdiagramms

Oft kennt man die Wahrscheinlichkeiten „vorwärts” (z.B. PM1(D)P_{\text{M1}}(\text{D})), gesucht ist aber die Wahrscheinlichkeit „rückwärts” (PD(M1)P_{\text{D}}(\text{M1})). Die Formel dafür ist:

PB(A)=P(AB)P(B)=P(A)PA(B)P(B)P_B(A) = \frac{P(A \cap B)}{P(B)} = \frac{P(A) \cdot P_A(B)}{P(B)}

Das ist die einfache Form des Satzes von Bayes.

Der Nenner P(B)P(B) lässt sich über alle vollständigen Alternativen A1,A2,A_1, A_2, \ldots berechnen (Satz der totalen Wahrscheinlichkeit): P(B)=P(A1)PA1(B)+P(A2)PA2(B)+P(B) = P(A_1) \cdot P_{A_1}(B) + P(A_2) \cdot P_{A_2}(B) + \cdots

Durchgeführtes Beispiel: Fabrik

Gesucht: PD(M1)P_{\text{D}}(\text{M1}) — wie wahrscheinlich ist es, dass ein defektes Teil von Maschine M1 stammt?

Aus dem Baumdiagramm (III.2): P(D)=P(M1)PM1(D)+P(M2)PM2(D)=0,60,03+0,40,05=0,038P(\text{D}) = P(\text{M1}) \cdot P_{\text{M1}}(\text{D}) + P(\text{M2}) \cdot P_{\text{M2}}(\text{D}) = 0{,}6 \cdot 0{,}03 + 0{,}4 \cdot 0{,}05 = 0{,}038

PD(M1)=P(M1D)P(D)=0,0180,0380,474P_{\text{D}}(\text{M1}) = \frac{P(\text{M1} \cap \text{D})}{P(\text{D})} = \frac{0{,}018}{0{,}038} \approx 0{,}474

Obwohl M1 eine geringere Defektrate hat (3%3\,\% gegenüber 5%5\,\%), produziert sie mehr Teile insgesamt — daher stammen fast 47%47\,\% der Defekte von ihr.

Umgekehrter Baum: Ausgangspunkt ist ‘defektes Teil’, gefragt nach der Herkunft

Medizinischer Test — ein klassisches Beispiel

Ein Schnelltest auf eine Krankheit hat folgende Eigenschaften: - Sensitivität PK(+)=0,95P_K(+) = 0{,}95: Von Kranken zeigt der Test 95%95\,\% positiv. - Spezifität PK()=0,98P_{\bar{K}}(-) = 0{,}98: Von Gesunden zeigt der Test 98%98\,\% negativ. - Prävalenz P(K)=0,01P(K) = 0{,}01: 1%1\,\% der Bevölkerung ist tatsächlich krank.

Gesucht: Wie wahrscheinlich ist es, wirklich krank zu sein, wenn der Test positiv ausfällt? (P+(K)P_+( K))

P(+)=P(K)PK(+)+P(K)PK(+)=0,010,95+0,990,02=0,0293P(+) = P(K) \cdot P_K(+) + P(\bar{K}) \cdot P_{\bar{K}}(+) = 0{,}01 \cdot 0{,}95 + 0{,}99 \cdot 0{,}02 = 0{,}0293

P+(K)=P(K+)P(+)=0,010,950,02930,324P_+(K) = \frac{P(K \cap +)}{P(+)} = \frac{0{,}01 \cdot 0{,}95}{0{,}0293} \approx 0{,}324

Trotz positivem Test ist man nur mit etwa 32%32\,\% Wahrscheinlichkeit tatsächlich krank — weil die Krankheit selten ist. Dieses Phänomen heißt Basisrateneffekt (engl. base rate fallacy).

Korrelation und Kausalität

Statistische Daten zeigen oft Korrelationen — zwei Merkmale treten gemeinsam häufig auf. Das bedeutet aber nicht, dass eines das andere verursacht.

Klassisches Beispiel: In Städten mit mehr Kirchen gibt es mehr Verbrechen. Erklärung: Größere Städte haben sowohl mehr Kirchen als auch mehr Verbrechen — die Stadtgröße ist die gemeinsame Ursache.

Grundsatz: Korrelation \neq Kausalität

Kritische Bewertung statistischer Aussagen

Beim Lesen von Statistiken und Studien sind folgende Fragen wichtig:

  • Stichprobe: Ist sie repräsentativ? Wie groß ist sie?
  • Erhebung: Wie wurden die Daten erhoben (Selbstauskunft, Messung, …)?
  • Absolute vs. relative Zahlen: „Doppeltes Risiko” klingt dramatisch — aber von 0,001%0{,}001\,\% auf 0,002%0{,}002\,\% ist kaum relevant.
  • Kausalität: Wird ein kausaler Zusammenhang behauptet, obwohl nur eine Korrelation vorliegt?
  • Grundgesamtheit: Gilt das Ergebnis wirklich für die interessierende Gruppe?

Rückblick: Wichtige Formeln

PA(B)=P(AB)P(A)(Bedingte Wahrscheinlichkeit)P_A(B) = \frac{P(A \cap B)}{P(A)} \qquad \text{(Bedingte Wahrscheinlichkeit)}

P(AB)=P(A)PA(B)(Multiplikationssatz)P(A \cap B) = P(A) \cdot P_A(B) \qquad \text{(Multiplikationssatz)}

P(B)=iP(Ai)PAi(B)(Totale Wahrscheinlichkeit)P(B) = \sum_i P(A_i) \cdot P_{A_i}(B) \qquad \text{(Totale Wahrscheinlichkeit)}

PB(A)=P(A)PA(B)P(B)(Satz von Bayes)P_B(A) = \frac{P(A) \cdot P_A(B)}{P(B)} \qquad \text{(Satz von Bayes)}

A,B unabhängigP(AB)=P(A)P(B)A, B \text{ unabhängig} \iff P(A \cap B) = P(A) \cdot P(B)

Darstellung Stärke
Baumdiagramm Mehrstufige Abläufe, bedingte Wahrscheinlichkeiten an den Ästen
Vierfeldertafel Übersicht über alle vier Kombinationen zweier Ereignisse