Bayesova věta

V teorii pravděpodobnosti nazýváme Bayesovou větou vztah mezi pravděpodobností P(E|F) a pravděpodobností opačně podmíněného jevu. Tento vztah byl poprvé publikován Thomasem Bayesem v článku An Essay towards solving a Problem in the Doctrine of Chances z roku 1763.

Věta

Mějme dva jevy E a F takové, že P(E) \\neq 0 a zároveň P(F) \\neq 0, pak také platí:

P(E|F) = {{P(F|E)\\cdot P(E)} \\over {P(F)}}

Mějme úplný systém vzájemně disjunktních jevů E_{1},\\; E_{2},\\; \\cdots,\\; E_{n} takových, že P(E_{i}) \\neq 0 pro všechna i, pak pro 1 \\leq i \\leq n platí:

P(E_{i}|F) = {{P(F|E_{i}) \\cdot P(E_{i})}\\over{P(F|E_{1}) \\cdot P(E_{1}) + P(F|E_{2}) \\cdot P(E_{2}) + \\cdots + P(F|E_{n}) \\cdot P(E_{n})}}

Důkaz

Důkaz první rovnosti plyne z definice podmíněné pravděpodobnosti, tj.:


\\begin{array}{lcr}
P(E|F) = {{P(E \\cap F)} \\over {P(F)}} \\\\
P(F|E) = {{P(F \\cap E)} \\over {P(E)}}
\\end{array}

Po vynásobení obou rovnic děliteli na pravých stranách dostáváme

P(E|F)\\cdot P(F) = P(F|R)\\cdot P(E)

Výslednou rovnici již jen vydělíme P(F), čímž získáme požadovaný vztah.

Důkaz druhého tvrzení je analogický, pouze místo P(F) použijeme vztah z věty o úplné pravděpodobnosti, tj.:

P(F) = \\sum_{i=1}^{n}P(F|E_{i})\\cdot P(E_{i})

Příklad

Karlovi udělali v rámci preventivní zdravotní prohlídky rentgenový snímek hrudníku. Tento snímek se však vrátil s pozitivním nálezem na rakovinu plic. Jaká je pravděpodobnost, že má Karel rakovinu, pokud víme, že je test falešně pozitivní v 5\\% případů a falešně negativní ve 40\\% případů. Dále si Karel zjistil, že pouze jeden z 500 zaměstnanců na srovnatelné pracovní pozici má rakovinu plic.


\\begin{array}{lcr}
P(Test = positive | Cancer = present) = 0.6 \\\\
P(Test = positive | Cancer = absent) = 0.05
\\end{array}
 
\\begin{array}{lcr}
P(present|positive) = 
{
    
{P(positive|present) \\cdot P(present)} \\over {P(positive|present) \\cdot P(present) + P(positive|absent) \\cdot P(absent)}} = \\\\ 

 = {{0.6 \\cdot 0.002} \\over {0.6 \\cdot 0.002 + 0.05 \\cdot 0.998}} = 0.023
\\end{array}

Pravděpodobnost, že má Karel rakovinu, je pouze 2.3\\%.

Příklad 2

Stejný test, který podstoupil Karel, podstoupil i Jiří (a test mu také vyšel pozitivní). Jiří však 20 let pracoval jako horník v uhelném dolu. Jiří ví, že 15 procent jeho bývalých kolegů má rakovinu plic. Jaká je pravděpodobnost, že má rakovinu i Jiří?

 
\\begin{array}{lcr}
P(present|positive) = {{P(positive|present)\\cdot P(present)} \\over {P(positive|present) \\cdot P(present) + P(positive|absent) \\cdot P(absent)}} = \\\\

 = {{0.6  \\cdot 0.15} \\over {0.6 \\cdot 0.15 + 0.05 \\cdot 0.85}} = 0.679
\\end{array}

Pravděpodobnost, že Jiří má rakovinu, je téměř 68\\%.

Literatura

  • NEAPOLITAN, Richard E. Learning Bayesian Networks. Chicago, Illinois: Northeastern Illinois University, 2003, s. 12-29. ISBN 978-0130125347.







Doporučujeme