Probabilité a posteriori

Dans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne.

Définition

La loi a priori p ( θ ) {\displaystyle p(\theta )} qu'un évènement X {\displaystyle X} ait lieu avec vraisemblance est p ( X | θ ) {\displaystyle p(X|\theta )} . La probabilité a posteriori se définit comme :

p ( θ | X ) = p ( X | θ ) p ( θ ) p ( X ) . {\displaystyle p(\theta |X)={\frac {p(X|\theta )p(\theta )}{p(X)}}.} [1]

La probabilité a posteriori peut s'écrire : Probabilité a posteriori Vraisemblance × Probabilité a prori . {\displaystyle {\text{Probabilité a posteriori}}\propto {\text{Vraisemblance}}\times {\text{Probabilité a prori}}.} [2]

Calcul

La distribution d'une probabilité a posteriori d'une variable aléatoire étant donné la valeur d'une autre peut être calculée avec le théorème de Bayes en multipliant la distribution de la probabilité a priori par la fonction de vraisemblance, et ensuite divisé par la constante de normalisation, tel que :

f X Y = y ( x ) = f X ( x ) L X Y = y ( x ) f X ( u ) L X Y = y ( u ) d u {\displaystyle f_{X\mid Y=y}(x)={f_{X}(x){\mathcal {L}}_{X\mid Y=y}(x) \over {\int _{-\infty }^{\infty }f_{X}(u){\mathcal {L}}_{X\mid Y=y}(u)\,du}}}

ce qui donne la fonction de densité a posteriori d'une variable aléatoire X {\displaystyle X} étant donné que Y = y {\displaystyle Y=y} et où :

  • f X ( x ) {\displaystyle f_{X}(x)} est la densité antérieure de X {\displaystyle X} ,
  • L X Y = y ( x ) = f Y X = x ( y ) {\displaystyle {\mathcal {L}}_{X\mid Y=y}(x)=f_{Y\mid X=x}(y)} est la fonction de vraisemblance de x {\displaystyle x} ,
  • f X ( u ) L X Y = y ( u ) d u {\displaystyle \int _{-\infty }^{\infty }f_{X}(u){\mathcal {L}}_{X\mid Y=y}(u)\,du} est la constante de normalisation, et
  • f X Y = y ( x ) {\displaystyle f_{X\mid Y=y}(x)} la densité postérieure de X {\displaystyle X} sachant Y = y {\displaystyle Y=y} .

Distributions continues et discrètes

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Articles connexes

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu des articles intitulés en anglais « Prior probability » (voir la liste des auteurs) et « Posterior probability » (voir la liste des auteurs).

Références

  1. Christopher M. Bishop, Pattern Recognition and Machine Learning, Springer, , 21–24 p. (ISBN 978-0-387-31073-2)
  2. Peter M. Lee, Bayesian statistics: an introduction, London, Arnold, (ISBN 9780340814055, lire en ligne)

Bibliographie

  • Rubin, Donald B., Gelman, Andrew, John B. Carlin et Stern, Hal, Bayesian Data Analysis, Boca Raton, Chapman & Hall/CRC, , 2nd éd. (ISBN 978-1-58488-388-3, MR 2027492)
  • James O. Berger, Statistical decision theory and Bayesian analysis, Berlin, Springer-Verlag, (ISBN 978-0-387-96098-2, MR 0804611)
  • James O. Berger et William E. Strawderman, « Choice of hierarchical priors: admissibility in estimation of normal means », Annals of Statistics, vol. 24, no 3,‎ , p. 931–951 (DOI 10.1214/aos/1032526950, MR 1401831, zbMATH 0865.62004)
  • Jose M. Bernardo, « Reference Posterior Distributions for Bayesian Inference », Journal of the Royal Statistical Society, Series B, vol. 41, no 2,‎ , p. 113–147 (JSTOR 2985028, MR 0547240)
  • James O. Berger, José M. Bernardo et Dongchu Sun, « The formal definition of reference priors », Annals of Statistics, vol. 37, no 2,‎ , p. 905–938 (DOI 10.1214/07-AOS587, Bibcode 2009arXiv0904.0156B, arXiv 0904.0156)
  • Edwin T. Jaynes, « Prior Probabilities », IEEE Transactions on Systems Science and Cybernetics, vol. 4, no 3,‎ , p. 227–241 (DOI 10.1109/TSSC.1968.300117, lire en ligne, consulté le )
    • réimprimé dans Rosenkrantz, Roger D., E. T. Jaynes: papers on probability, statistics, and statistical physics, Boston, Kluwer Academic Publishers, , 116–130 p. (ISBN 978-90-277-1448-0)
  • Edwin T. Jaynes, Probability Theory: The Logic of Science, Cambridge University Press, (ISBN 978-0-521-59271-0, lire en ligne)
  • Jon Williamson, « review of Bruno di Finetti. Philosophical Lectures on Probability », Philosophia Mathematica, vol. 18, no 1,‎ , p. 130–135 (DOI 10.1093/philmat/nkp019, lire en ligne [archive du ], consulté le )
  • Tony Lancaster, An Introduction to Modern Bayesian Econometrics, Oxford, Blackwell, (ISBN 1-4051-1720-6)
  • Peter M. Lee, Bayesian Statistics : An Introduction, Wiley, , 3rd éd. (ISBN 0-340-81405-5)
  • icône décorative Portail des mathématiques