Inférence multivariée

Deux paramètres: cas général

Posterior \(\propto\) vraisemblance \(\times\) prior \(\Leftrightarrow p(\Theta|y) \propto \mathcal{L}_n \cdot p(\Theta)\)

Si \(\Theta = (\theta_1, \theta_2)\)

  1. La vraisemblance est sans problème (aucun changement sur son expression)

  2. Loi a priori \(p(\theta_1, \theta_2)\) → quelle distribution?

    • Prior conjoint: \(p(\theta_1, \theta_2)\)

    • Indépendance: \(p(\theta_1, \theta_2) = p(\theta_1) \cdot p(\theta_2)\) → deux cas univariés

    • Théorème de Bayes: \(p(\theta_1, \theta_2) = p(\theta_1 | \theta_2) \cdot p(\theta_2)\)

      • \(p(\theta_1 | \theta_2)\) : probabilité conditionnelle

      • \(p(\theta_2)\) : cas univarié

  3. Loi a posteriori \(p(\theta_1, \theta_2 | y)\) → elle nous intéresse ainsi ?

    • Oui, si prior conjoint : \(p(\theta_1, \theta_2)\)

    • Connaissance et intérêt pour \((\theta_1, \theta_2)\)

    • Si non, on s'intéresse aux probabilités marginales: \(p(\theta_1 | y)\) et \(p(\theta_2 | y)\)

    • Solution: propriété \(p(x) = \int{p(x,y) \mathrm{d}y}\)

      1. \(p(\theta_1 | y) = \displaystyle{\int}{p(\theta_1, \theta_2 | y) \mathrm{d} \theta_2}\)

      2. \(p(\theta_2 | y) = \displaystyle{\int}{p(\theta_1, \theta_2 | y) \mathrm{d} \theta_1}\)

Deux paramètres : la normale

\(\Theta = (\mu, \sigma^2) \Rightarrow p(\mu, \sigma^2|y) \propto \mathcal{L}_n \cdot \color{blue}{p(\mu,\sigma^2)}\)

  • Prior conjoint: \(p(\mu,\sigma^2) \rightarrow\) (cf. page suivante)

  • Indépendance: \(p(\mu) p(\sigma^2) \rightarrow\) (cf. page suivante)

  • Conditionnement: \(p(\mu | \sigma^2) p(\sigma^2)\)

    • \(p(\mu | \sigma^2)\) : cas où la variance est connue

    • \(p(\sigma^2)\)

      1. \(p(\sigma^2) \propto \mathsf{Cste}\) : cas où la variance est connue

      2. \(p(\sigma^2) \rightarrow\) (cf. plus loin)

  • Conditionnement : \(p(\sigma^2 | \mu) p(\mu) \rightarrow\) rien de bien sympa !

    (pas de forme analytique pour les lois a posteriori)