41.3.2 Voorwaardelijke kansen

Soms ontvangt men gedeeltelijke informatie over de uitkomst van een kansexperiment. Op grond daarvan moeten de kansen worden bijgesteld: immers, sommige uitkomsten zijn nu niet meer mogelijk (dus hun kans wordt nu nul), terwijl andere uitkomsten waarschijnlijker worden.

De kans dat gebeurtenis A plaatsvindt, als bekend is dat gebeurtenis B plaatsvindt, heet de voorwaardelijke kans van A gegeven B. Men schrijft $P(A|B).$

Merk op dat in het algemeen $P(A|B) \neq P(B|A)$.

Het principe van Bayes is zowel een formele definitie als de belangrijkste rekenregel voor voorwaardelijke kansen:

$$P(A \; \text{en}\; B) = P(A|B) \cdot {(B).$$

Als de gebeurtenissen A en B onafhankelijk zijn, dan geldt

$$P(A|B) = P(A)$$

met andere woorden, kennis van B verandert niets aan de kans op A. Het principe van Bayes zegt nu meteen dat $P(A \ \;text{en} \; B) = P(A) \cdot P(B)$, overeenkomstig de vorige deelparagraaf.

Stel dat het volgende bekend is over een bedrijf:

  • de kans dat een werknemer een man is, is P(M) = 65%;
  • de kans dat een man een bepaald type kleurenblindheid heeft,
    is P(B | M) = 6,3%;
  • de kans dat een vrouw dit type kleurenblindheid heeft,
    is P(B | niet-M) = 0,37%.

Hoe groot is nu de kans op kleurenblindheid van een willekeurige werknemer van het bedrijf, P(B)?

De gebeurtenis B kan worden uitgesplitst in twee niet-overlappende delen: “B en M” en “B en niet-M”. Er geldt:

P(B) = P(B en M) + P(B en niet-M).

Nu gebruiken wij het principe van Bayes om dit uit te werken:

P(B) = P(B en M) + P(B en niet-M)
= P(M) × P(B | M) + P(niet-M) × P(B | niet-M)
= 0,65 × 0,063 + 0,35 × 0,0037
= 0,410 + 0,001 = 0,411 = 41,1%.