Loi Beta et estimation d'une proportion

  • On a vu que :

    \( \Pr(\theta) = \frac{1}{Be(\alpha ;\ \beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}\)

  • par ailleurs, si \(D = \{s;f\}\) :

\(\Pr(\theta|D)\)

\(= \frac{\Pr(D|\theta)\times \Pr(\theta)}{\Pr(D)} \\\)

\(= \frac{C_{s+f}^s \theta^s (1-\theta)^{f}\times \Pr(\theta)}{\Pr(D)} \\\)

\(= c(D) \theta^s (1-\theta)^{f}\times \Pr(\theta) \\\)

Dans le cas particulier de la loi Beta uniforme : \(Be(1 ;\ 1)\) :

\(\Pr(\theta) = \frac{\Gamma(2)}{\Gamma(1)\Gamma(1)}\theta^{1-1}(1-\theta)^{1-1} = \frac{1}{1\times1} 1 \times 1 = 1\)

Dit autrement, la loi \(Be(1\ ;\ 1)\) vaut 1 partout entre 0 et 1.

Un des intérêts de la loi Beta est qu'elle s'interprète aisément en termes de succès et d'échecs, ce qui la rend particulièrement intéressante lorsque l'on analyse des proportions, que l'on peut toujours interpréter comme une série de succès et d'échecs.

Par ailleurs, la loi Beta est dite conjuguée car, si l'on « rentre » une loi Beta en a priori dans la machine bayésienne, on« sort » une loi Beta en a posteriori

Pourquoi ? Pour comprendre ce mécanisme, reprenons les propriétés de la loi Beta.

Soit une expérience binomiale : \(Be(n\ ;\ \theta)\), où \(\theta\sim Be(\alpha\ ;\ \beta)\)

\(\Pr(\theta|D)\)

\(= \frac{\color{blue}{\Pr(D|\theta)}\times \color{green}{\Pr(\theta)}}{\Pr(D)} \\\)

\(= \frac{1}{\Pr(D)}\times \color{blue}{C_{s+f}^s \theta^s(1-\theta)^{f}} \times \color{green}{\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{(\beta-1)}} \\\)

\(= c(s+f,D,\alpha,\beta) \times \theta^{(\alpha+s-1)} (1-\theta)^{(\beta+f-1)} \\\)

\(= Be(\alpha+s\ ;\ \beta+f)_{\theta}\\\)

Ceci illustre donc bien la notion de loi conjuguée : la loi a priori et la loi a posteriori sont de la même famille.