Théorème de Bayes pour les lois continues

Nous avons montré comment calculer une loi a posteriori pour un paramètre, sur la base d'une loi discrète, avec un nombre croissant de modalités dans la loi a priori. On peut bien sûr utiliser, en augmentant à l'infini le nombre de modalité, une loi a priori continue. La loi continue a priori à utiliser pour estimer une proportion est,de manière générale, une loi Beta \(Be(\alpha\ ;\ \beta)\)

  • Dans les exemples précédents : \(\theta\) suivait une loi discrète, uniforme a priori\(\theta\) est le paramètre d'une loi binomiale, à estimer

  • si on souhaite une loi continue, il faut une loi a priori telle que \(\theta\) soit toujours compris entre 0 et 1

  • la loi Beta \(Be(\alpha\ ; \ \beta)\) répond à cette contrainte

  • on démontre par ailleurs que si \(\theta \sim Be(\alpha\ ;\ \beta )\) et que l'on observe \(s\) succès et \(f\) échecs au cours de \(n\) expériences binomiales, alors \( \theta|D \sim Be(\alpha+s\ ;\ \beta+f)\)

  • la loi Beta \(Be(1\ ;\ 1)\) est une loi uniforme.

Mais quid du théorème de Bayes (TB) pour les lois continues ?

le TB s'écrit alors :

\(f(\theta|y) = \frac{f(y|\theta)f(\theta)}{f(y)} \propto f(y|\theta)f(\theta)\)

\(f(\theta|y) \propto f(y|\theta)f(\theta)\)

loi a posteriori \(\propto\) vraisemblance \(\times\) loi a priori

comme toujours en bayésien, il y a transformation d'une connaissance (ou une opinion) a priori en une connaissance (ou opinion) a posteriori