Les distributions
L'écriture du problème
Les mesures dans le premier groupe sont normalement distribuées :
\(y_1 \sim \mathcal{N}(\mu-\delta, \sigma^2=1/\tau)\)
Les mesures dans le second groupe sont normalement distribuées :
\(y_2 \sim \mathcal{N}(\mu+\delta, \sigma^2=1/\tau)\)
On suppose la variance commune dans les deux groupes (c'est assez compliqué ainsi ! )
Si \(\mu_1\) et \(\mu_2\) sont les moyennes dans les deux groupes alors
\(2 \delta = \mu_1 - \mu_2\), différence des deux moyennes
\(\mu = \dfrac{\mu_1+\mu_2}{2}\), moyenne des deux moyennes
On a recueilli
Un échantillon de taille \(n_1\) de valeurs de \(y_1\) dont la moyenne est \(\overline{y_1}\) et la variance \(s^2_1\)
Un échantillon de taille \(n_2\) de valeurs de \(y_2\) dont la moyenne est \(\overline{y_2}\) et la variance \(s^2_2\)
Les lois a priori
On a à estimer trois paramètres: \(\mu\), \(\delta\) et \(\tau\)
On va supposer que \(p(\mu, \tau, \delta) = p(\mu | \tau) p(\tau) p(\delta)\) avec
\(\mu | \tau \sim \mathcal{N}\left(\mu_0, 1/\tau_{\mu 0}\right)\)
\(\tau \sim \Gamma \left( \alpha_0/2, \beta_0/2 \right)\)
\(\delta \sim \mathcal{N}\left(\delta_0, 1/\tau_{\delta 0}\right)\)
Les lois a posteriori
Les lois a posteriori explicitées seront les lois conditionnelles complètes
→ loi de chaque paramètre conditionnellement à toutes les autres grandeurs aléatoires du modèle
La loi a posteriori conditionnelle complète de \(\mu\)
On retrouve une expression proche du cas de l'estimation des paramètres d'une normale
En fixant \(\tau_{\mu 0} = \tau \cdot \kappa_0\) (\(\kappa_0\) peut-être vu comme la taille d'un pseudo-échantillon a priori ayant fourni l'information sur \(\mu\))
\(\mu|\tau, \delta, y_1, y_2 \sim \mathcal{N}\left(\mu_n, 1/\tau_{\mu n}\right)\)
avec
\(\left\{\begin{array}{lcl} \mu_n&=& \dfrac{\kappa_0}{\kappa_0 + (n_1+n_2)} \mu_0 \\&& + \dfrac{n_1+n_2}{\kappa_0 + (n_1+n_2)} \dfrac{n_1(\overline{y_1}-\delta) + n_2(\overline{y_2}+\delta)}{n_1+n_2}\\[2ex] \tau_{\mu n}&=& \tau (\kappa_0 + n_1+n_2) \end{array} \right.\)
\(\mu_n\) est une somme pondérée \(w_{\mu} \mu_0 + \left(1-w_{\mu}\right) \dfrac{n_1(\overline{y_1}-\delta) + n_2(\overline{y_2}+\delta)}{n_1+n_2}\)
avec
\(w_{\mu} = \dfrac{\kappa_0}{\kappa_0 + (n_1+n_2)}\)
La loi a posteriori conditionnelle complète de \(\delta\)
On retrouve une expression très proche de la loi de \(\mu\)
En fixant \(\tau_{\delta 0} = \tau \cdot \nu_0\) (\(\nu_0\) peut-être vu comme la taille d'un pseudo-échantillon a priori ayant fourni l'information sur \(\delta\))
\(\delta|\tau, \mu, y_1, y_2 \sim \mathcal{N}\left(\delta_n, 1/\tau_{\delta n}\right)\)
avec
\(\left\{\begin{array}{lcl} \delta_n&=& \dfrac{\nu_0}{\nu_0 + (n_1+n_2)} \delta_0 \\&&+ \dfrac{n_1+n_2}{\nu_0 + (n_1+n_2)} \dfrac{n_1(\overline{y_1}-\mu) + n_2(\mu-\overline{y_2})}{n_1+n_2}\\[2ex] \tau_{\delta n}&=& \tau (\nu_0 + n_1+n_2) \end{array} \right.\)
\(\delta_n\) est une somme pondérée \(w_{\delta} \delta_0 + \left(1-w_{\delta}\right) \dfrac{n_1(\overline{y_1}-\mu) + n_2(\mu-\overline{y_2})}{n_1+n_2}\)
avec
\(w_{\delta} = \dfrac{\nu_0}{\nu_0 + (n_1+n_2)}\)
La loi a posteriori conditionnelle complète de \(\tau\)
On retrouve une expression proche du cas de l'estimation des paramètres d'une normale
\(\tau| \mu, \delta, y_1, y_2 \sim \Gamma(\alpha_n, \beta_n)\)
avec :
\(\left\{ \begin{array}{lcl} \alpha_n &=& \frac{\alpha_0 + n_1+n_2}{2} \\[2ex] \beta_n &=& \frac{\beta_0 + \textsf{BSSE}}{2} \\[2ex] \end{array} \right.\)
BSSE est un « Bayesian sum of squared errors »
\(\textsf{BSSE} = n_1 s^2_1 + n_2 s^2_2 + n_1 \left( \overline{y_1} -\mu - \delta \right)^2 + n_2 \left( \overline{y_2} -\mu + \delta \right)^2\)
Chacune des lois conditionnelles complètes dépend
Des données
De ses paramètres a priori
Des valeurs des autres distributions
L'estimation doit se faire de manière itérative → on verra comment plus loin (cf. McMC)
Manipulation : Manipulations pour résoudre le problème
Les données de glycémie sont déjà chargées
Faire varier les paramètres des lois a priori
Voir les répercussions sur les lois a posteriori
→ l'estimation de ces lois se fait par un algorithme (Gibbs sampler) qu'on verra plus loin
Conclure quant à la différence de régime