Soms ontvangt men gedeeltelijke informatie over de uitkomst van een kansexperiment. Op grond daarvan moeten de kansen worden bijgesteld: immers, sommige uitkomsten zijn nu niet meer mogelijk (dus hun kans wordt nu nul), terwijl andere uitkomsten waarschijnlijker worden.
De kans dat gebeurtenis A plaatsvindt, als bekend is dat gebeurtenis B plaatsvindt, heet de voorwaardelijke kans van A gegeven B. Men schrijft $P(A|B).$
Merk op dat in het algemeen $P(A|B) \neq P(B|A)$.
Het principe van Bayes is zowel een formele definitie als de belangrijkste rekenregel voor voorwaardelijke kansen:
$$P(A \; \text{en}\; B) = P(A|B) \cdot {(B).$$
Als de gebeurtenissen A en B onafhankelijk zijn, dan geldt
$$P(A|B) = P(A)$$
met andere woorden, kennis van B verandert niets aan de kans op A. Het principe van Bayes zegt nu meteen dat $P(A \ \;text{en} \; B) = P(A) \cdot P(B)$, overeenkomstig de vorige deelparagraaf.
Stel dat het volgende bekend is over een bedrijf:
- de kans dat een werknemer een man is, is P(M) = 65%;
- de kans dat een man een bepaald type kleurenblindheid heeft,
is P(B | M) = 6,3%; - de kans dat een vrouw dit type kleurenblindheid heeft,
is P(B | niet-M) = 0,37%.
Hoe groot is nu de kans op kleurenblindheid van een willekeurige werknemer van het bedrijf, P(B)?
De gebeurtenis B kan worden uitgesplitst in twee niet-overlappende delen: “B en M” en “B en niet-M”. Er geldt:
P(B) = P(B en M) + P(B en niet-M).
Nu gebruiken wij het principe van Bayes om dit uit te werken:
P(B) = P(B en M) + P(B en niet-M)
= P(M) × P(B | M) + P(niet-M) × P(B | niet-M)
= 0,65 × 0,063 + 0,35 × 0,0037
= 0,410 + 0,001 = 0,411 = 41,1%.