Vers une version plus complète

Le principe exposé jusqu'ici peut s'étendre à grand nombre d'hypothèses. Toujours en utilisant pour l'instant une loi a priori discrète, on peut estimer la proportion d'intérêt de façon plus fine.

  • Soit une étude dans laquelle on recueille 20 valeurs binaires, et que l'on obtient 13 succès et 7 échecs, c.-à-d. une proportion observée de 0,65.

  • On veut savoir si la proportion \(\pi\) diffère d'une proportion \(\pi_R=0,5\)

  • utilisation d'une loi discrète, uniforme, à 9 modalités

A titre d'information et de comparaison :

  • une analyse fréquentiste par un test exact bilatéral donne une p-valeur à 0,263

  • une analyse fréquentiste par un test exact unilatéral donne p = 0,132

  • un test avec l'approximation gaussienne donne p = 0,180 et 0,090 en bilatéral et unilatéral respectivement

L'analyse bayésienne, avec une loi a priori discrète à 9 modalités, se fait de la manière suivante :

\(\theta_i\)

\(\Pr(\theta_i)\)

\(\Pr(D|\theta_i)\)

\(\Pr(\theta_i) \times \Pr(D|\theta_i)\)

\(\Pr(\theta_i|D)\)

0,1

1/9

0,0000

0,0000/9

0,00000

0,2

1/9

0,0000

0,0000/9

0,00003

0,3

1/9

0,0010

0,0010/9

0,00214

0,4

1/9

0,0146

0,0146/9

0,03058

0,5

1/9

0,0739

0,0739/9

0,15525

0,6

1/9

0,1659

0,1659/9

0,34835

0,7

1/9

0,1643

0,1643/9

0,34495

0,8

1/9

0,0545

0,0545/9

0,11456

0,9

1/9

0,0020

0,0020/9

0,00414

\(\sum\)

1

0,4762

0,0529

Pour des raisons de commodité de présentation, le tableau est transposé par rapport aux tableaux précédents : les lignes deviennent des colonnes et l'ensemble des éléments requis sont présentés en colonnes : les valeurs possibles de \(\theta\), les probabilités associées à chaque valeur de \(\theta\), la fonction de vraisemblance, le produit de la vraisemblance par la loi a priori et enfin la loi a posteriori.

Notion de loi a priori

Dans cet exemple, on a :

\(\Pr(\theta_i)\) : les valeurs possibles de la loi a priori de \(\theta\) : \(\Pr(\theta)\)

Rappel

\(\Pr(\theta|D) = \Pr(D|\theta)\Pr(\theta)/\Pr(D)\)

et ici :

\(\Pr(D) = 0,0529\)

Dans R, on calcule :

theta=(1:9)/10

choose(20,13)*theta^13*(1-theta)^7

plot(theta,choose(20,13)*theta^13*(1-theta)^7,type="h",

lwd=4,ylab="Vraisemblance des données",

xlab=expression(theta),cex.lab=2,lab=c(9,5,9))

Vraisemblance des données pour une loi a priori à 9 valeurs :

On peut étendre le nombre de modalité de la loi discrète. On utilise maintenant une loi a priori à 99 modalités suivant une distribution a priori uniforme :

\(\theta_i\)

\(\Pr(\theta_i)\)

\(\Pr(D|\theta_i)\)

\(\Pr(\theta_i) \times \Pr(D|\theta_i)\)

\(\Pr(\theta_i|D)\)

,01

1/99

,00000

,00000/99

,00000

,02

1/99

,00000

,00000/99

,00000

...

...

...

...

...

,75

,11241

,11241/99

,00114

...

...

...

...

...

,99

1/99

,00000

,00000/99

,00000

\(\sum\)

1

0,4762

0,0481

Notez que la valeur du maximum de la vraisemblance est obtenue pour \(\theta_i=0,65\) (la valeur indiquée ici pour \(\theta = 0,75\) est donné pour illustration).

Il ne faut pas confondre la valeur maximum de la vraisemblance avec la valeur maximum de la loi a posteriori ! Ces deux maximum peuvent se situer au même point de l'espace, mais ce n'est pas nécessairement le cas. C'est en fait rarement le cas.

Avec 99 valeurs de \(\theta\), on calcule dans R :

theta=(1:99)/100

like<-choose(20,13)*theta^13*(1-theta)^7

plot(like,type="h",lwd=4)

ProbD<-sum(like*1/99)

thetapost<-(like*1/99)/ProbD

sum(thetapost)

sum(thetapost[theta>0.5])

Avec 99 valeurs de \(\theta\), la vraisemblance est elle aussi discrète et l'on trouve la courbe suivante :

On peut choisir une autre loi a priori, avec par exemple 99 valeurs ayant une distribution a priori faiblement-informative :

theta<-(1:99)/100

thetaprior<-abs(sin((((1:99)/100)*pi))/(2*pi))

thetaprior<-thetaprior/sum(thetaprior)

plot((1:99)/100,thetaprior,type="h",ylim=c(0,0.05),main="Loi a priori faiblement informative",ylab="",xlab=expression(theta),cex.lab=1.2,cex.axis=1.2) # loi a priori de theta

sum(thetaprior) # = 1, pour vérification

length(thetaprior) # = 99, pour vérification

La loi a priori faiblement informative choisie ci-dessus a la forme suivante :

La loi a posteriori est en rouge sur le graphique suivant :

Ce graphique s'obtient dans R de la manière suivante :

like<-choose(20,13)*theta^13*(1-theta)^7

ProbD<-sum(like*thetaprior)

thetapost<-(like*1/99)/ProbD

sum(thetapost)

sum(thetapost[theta>0.5])

points((1:99)/100,thetapost,type="h",lwd=3,col="red")

En bayésien, on peut ensuite calculer, sur la loi a posteriori, toutes les probabilités d'intérêt :

  • calcul de \(\Pr(\theta>0,5|D) = 0,8975\)

  • ce qui est plus utile que de dire que l'on ne rejette pas \(H_0\)

  • toute autre probabilité peut-être calculée : \(\Pr(\theta>0,5)\), \(\Pr(0,78<\theta<0,82)\), etc

Ceci est possible car

  • en statistique fréquentiste : les données sont variables, les paramètres sont fixes, mais les bornes des intervalles sont aléatoires

  • en bayésien : les données sont fixes (une fois observées) et les paramètres sont aléatoires

  • comme ils sont aléatoires, ils sont dotés d'une loi de probabilité ce qui permet de faire des calculs probabilistes sur le paramètre

  • le calcul de \(\Pr(\theta>\theta_R)\) implique une incertitude sur \(\theta\) et donc \(\Pr(\theta>0,5|D)\) n'a pas de sens en fréquentiste.