Statistik - Wahrscheinlichkeits-Bayes-Theorem

Eine der bedeutendsten Entwicklungen im Bereich der Wahrscheinlichkeitsrechnung war die Entwicklung der Bayes'schen Entscheidungstheorie, die sich bei Entscheidungen unter unsicheren Bedingungen als immens hilfreich erwiesen hat. Das Bayes-Theorem wurde von dem britischen Mathematiker Rev. Thomas Bayes entwickelt. Die nach dem Bayes-Theorem angegebene Wahrscheinlichkeit wird auch als inverse Wahrscheinlichkeit, posteriore Wahrscheinlichkeit oder revidierte Wahrscheinlichkeit bezeichnet. Dieser Satz bestimmt die Wahrscheinlichkeit eines Ereignisses unter Berücksichtigung der gegebenen Beispielinformationen. daher der Name posterior Wahrscheinlichkeit. Der Bayes-Satz basiert auf der Formel der bedingten Wahrscheinlichkeit.

Bedingte Wahrscheinlichkeit für Ereignis $ {A_1} $ bei gegebenem Ereignis $ {B} $ ist

$ {P (A_1 / B) = \ frac {P (A_1 \ und \ B)} {P (B)}} $

Ebenso ist die Wahrscheinlichkeit des Ereignisses $ {A_1} $ bei gegebenem Ereignis $ {B} $

$ {P (A_2 / B) = \ frac {P (A_2 \ und \ B)} {P (B)}} $

Wo

$ {P (B) = P (A_1 \ und \ B) + P (A_2 \ und \ B) \\ [7pt] P (B) = P (A_1) \ mal P (B / A_1) + P (A_2 ) \ times P (BA_2)} $
$ {P (A_1 / B)} $ kann umgeschrieben werden als
$ {P (A_1 / B) = \ frac {P (A_1) \ mal P (B / A_1)} {P (A_1)} \ mal P (B / A_1) + P (A_2) \ mal P (BA_2) } $

Daher lautet die allgemeine Form des Bayes-Theorems

$ {P (A_i / B) = \ frac {P (A_i) \ mal P (B / A_i)} {\ sum_ {i = 1} ^ k P (A_i) \ mal P (B / A_i)}} $

Wobei $ {A_1} $, $ {A_2} $ ... $ {A_i} $ ... $ {A_n} $ aus n sich gegenseitig ausschließenden und erschöpfenden Ereignissen bestehen.