Le modèle linéaire bayésien
Spécification
Vraisemblance \(y_i \sim \mathcal{N}(\mu_i, \sigma^2=1/\tau)\)
Modèle linéaire \(\mu_i = \beta_0 + \beta_1 x\)
Spécifier les priors sur les \(\beta\) et sur \(\sigma^2\)
Les paramètres doivent être estimés par les méthodes algorithmiques (cf. plus loin McMC)
Les priors
Les paramètres à estimer sont \(\beta_0\), \(\beta_1\) et \(\tau\)
Hypothèse courante : indépendance \(\sigma^2\) et \(\boldsymbol{\beta}\)
\(\Rightarrow p(\boldsymbol{\beta},\sigma^2) = p(\boldsymbol{\beta}) \cdot p(\sigma^2)\)
De manière assez classique : \(\tau = 1/\sigma^2 \sim \Gamma(A,B)\), où \(A\) et \(B\) sont choisis pour correspondre à une information vague
Pour \(\beta_0\) et \(\beta_1\), différents choix sont possibles
Distributions a priori sur \((\beta_0, \beta_1)\)
Indépendance et peu d'information: chaque \(\beta \sim \mathcal{N}\left(0, C \right)\) où \(C\) est choisi grand (variance de 1.000 par exemple)
Dépendance dans une loi binormale : \(\left(\begin{array}{c} \beta_0\\ \beta_1 \end{array} \right) \sim \mathcal{N}_2 \left( \left(\begin{array}{c} \theta_0\\ \theta_1 \end{array} \right), \boldsymbol{\Sigma} \right)\)
où \(\boldsymbol{\Sigma} = \left( \begin{array}{cc} \sigma^2_{\beta_0} & \rho \sigma_{\beta_0} \sigma_{\beta_1} \\ \rho \sigma_{\beta_0} \sigma_{\beta_1} & \sigma^2_{\beta_1} \end{array} \right)\)
Des lois a priori peuvent être placées sur \(\rho\), \(\sigma^2_{\beta_0}\) et \(\sigma^2_{\beta_1}\), par exemple :
Uniforme [-1,1] sur \(\rho\)
Lois gamma sur les inverses des variances
Les résultats
L'étude plus approfondie de ce modèle dépasse le cadre de ce cours