Le modèle linéaire bayésien

Spécification

  • Vraisemblance \(y_i \sim \mathcal{N}(\mu_i, \sigma^2=1/\tau)\)

  • Modèle linéaire \(\mu_i = \beta_0 + \beta_1 x\)

  • Spécifier les priors sur les \(\beta\) et sur \(\sigma^2\)

  • Les paramètres doivent être estimés par les méthodes algorithmiques (cf. plus loin McMC)

Les priors

  • Les paramètres à estimer sont \(\beta_0\), \(\beta_1\) et \(\tau\)

  • Hypothèse courante : indépendance \(\sigma^2\) et \(\boldsymbol{\beta}\)

    \(\Rightarrow p(\boldsymbol{\beta},\sigma^2) = p(\boldsymbol{\beta}) \cdot p(\sigma^2)\)

  • De manière assez classique : \(\tau = 1/\sigma^2 \sim \Gamma(A,B)\), où \(A\) et \(B\) sont choisis pour correspondre à une information vague

  • Pour \(\beta_0\) et \(\beta_1\), différents choix sont possibles

Distributions a priori sur \((\beta_0, \beta_1)\)

  • Indépendance et peu d'information: chaque \(\beta \sim \mathcal{N}\left(0, C \right)\)\(C\) est choisi grand (variance de 1.000 par exemple)

  • Dépendance dans une loi binormale : \(\left(\begin{array}{c} \beta_0\\ \beta_1 \end{array} \right) \sim \mathcal{N}_2 \left( \left(\begin{array}{c} \theta_0\\ \theta_1 \end{array} \right), \boldsymbol{\Sigma} \right)\)

\(\boldsymbol{\Sigma} = \left( \begin{array}{cc} \sigma^2_{\beta_0} & \rho \sigma_{\beta_0} \sigma_{\beta_1} \\ \rho \sigma_{\beta_0} \sigma_{\beta_1} & \sigma^2_{\beta_1} \end{array} \right)\)

  • Des lois a priori peuvent être placées sur \(\rho\), \(\sigma^2_{\beta_0}\) et \(\sigma^2_{\beta_1}\), par exemple :

    • Uniforme [-1,1] sur \(\rho\)

    • Lois gamma sur les inverses des variances

Les résultats

L'étude plus approfondie de ce modèle dépasse le cadre de ce cours