Probabilité a priori

Dans le théorème de Bayes, la probabilité a priori (ou prior[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

Théorème de Bayes

Le théorème de Bayes s'énonce de la manière suivante :

, si .

désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .

Lois

Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

  • la loi de la variable aléatoire avant observation est appelée loi a priori, notée généralement [1],[2] ;
  • la loi de la variable aléatoire après observation est appelée loi a posteriori.

Extension du modèle

Soit X une variable aléatoire dont la loi de probabilité associée dépend de , et x l'observation.

Le théorème de Bayes s’énonce alors : .

La probabilité a priori est et la probabilité a posteriori devient .

La loi a priori est toujours et la loi a posteriori est alors la loi de conditionnellement à l'observation de et s'écrit donc [1],[2].

Choix d’une loi de probabilité a priori

Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3](pp27–41).

  • Une loi a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
  • Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
  • Une loi a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.
  • Les lois a priori peuvent également être choisies en fonction d'un certain principe, comme la symétrie ou la maximisation de l'entropie compte tenu des contraintes ; les exemples sont la loi a priori de Jeffreys ou l’a priori de référence de Berger-Bernardo.
  • Enfin, lorsqu'il existe une famille d’a priori conjugués (en), le choix d'un a priori dans cette famille simplifie le calcul de la loi a posteriori.

Articles connexes

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Prior probability » (voir la liste des auteurs).
  1. Les mots « prior » et « posterior », d'origine anglaise, signifient « avant » et « après » et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, p. 59.

Références

  1. Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Bradley P. Carlin et Thomas A. Louis, Bayesian Methods for Data Analysis, CRC Press, , Third éd. (ISBN 9781584886983)

Bibliographie

  • Rubin, Donald B., Gelman, Andrew, John B. Carlin et Stern, Hal, Bayesian Data Analysis, Boca Raton, Chapman & Hall/CRC, , 2nd éd. (ISBN 978-1-58488-388-3, Math Reviews 2027492)
  • James O. Berger, Statistical decision theory and Bayesian analysis, Berlin, Springer-Verlag, (ISBN 978-0-387-96098-2, Math Reviews 0804611)
  • James O. Berger et William E. Strawderman, « Choice of hierarchical priors: admissibility in estimation of normal means », Annals of Statistics, vol. 24, no 3, , p. 931–951 (DOI 10.1214/aos/1032526950, Math Reviews 1401831, zbMATH 0865.62004)
  • Jose M. Bernardo, « Reference Posterior Distributions for Bayesian Inference », Journal of the Royal Statistical Society, Series B, vol. 41, no 2, , p. 113–147 (JSTOR 2985028, Math Reviews 0547240)
  • James O. Berger, José M. Bernardo et Dongchu Sun, « The formal definition of reference priors », Annals of Statistics, vol. 37, no 2, , p. 905–938 (DOI 10.1214/07-AOS587, Bibcode 2009arXiv0904.0156B, arXiv 0904.0156)
  • Edwin T. Jaynes, « Prior Probabilities », IEEE Transactions on Systems Science and Cybernetics, vol. 4, no 3, , p. 227–241 (DOI 10.1109/TSSC.1968.300117, lire en ligne, consulté le )
    • réimprimé dans Rosenkrantz, Roger D., E. T. Jaynes: papers on probability, statistics, and statistical physics, Boston, Kluwer Academic Publishers, , 116–130 p. (ISBN 978-90-277-1448-0)
  • Edwin T. Jaynes, Probability Theory: The Logic of Science, Cambridge University Press, (ISBN 978-0-521-59271-0, lire en ligne)
  • Jon Williamson, « review of Bruno di Finetti. Philosophical Lectures on Probability », Philosophia Mathematica, vol. 18, no 1, , p. 130–135 (DOI 10.1093/philmat/nkp019, lire en ligne [archive du ], consulté le )
  • Tony Lancaster, An Introduction to Modern Bayesian Econometrics, Oxford, Blackwell, (ISBN 1-4051-1720-6)
  • Peter M. Lee, Bayesian Statistics : An Introduction, Wiley, , 3rd éd. (ISBN 0-340-81405-5)
  • Portail des mathématiques
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.