Principe général de la comparaison de deux proportions

Résumé des épisodes précédents (1)

  • estimation d'une proportion

  • test d'une proportion

  • via une loi \(Beta(\alpha ; \beta)\) comme loi a priori

  • propriété de la loi Beta() \(\to\) obtention des paramètres de la loi a posteriori

  • pour \(x\) succès parmi \(n\) valeurs : \( p|D \sim Beta(\alpha + x ; \beta +n-x)\)

La loi Beta() a posteriori est étudiée analytiquement ou par échantillonnage McMC

Résumé des épisodes précédents (2)

  • notion de test

  • la même loi Beta a posteriori peut servir de base à la description de \(p\) et à la réalisation d'un test sur \(p\)

  • test de comparaison d'une proportion à une proportion de référence

  • solution analytique ou par simulation McMC

Extension à deux proportions :

Contexte :

  • comparaison de deux proportions

  • situation très fréquente en médecine

  • Ex. (1) : comparaison de deux traitements dans un essai thérapeutique avec critère de jugement binaire

  • Ex. (2) : recherche de l'exposition ou non à un toxique dans une étude cas-témoins

→ comparaison de deux proportions

Le contexte : un essai thérapeutique

TMT A

TMT B

Total

Succès

110

85

195

Échecs

90

115

205

Total

\(N_A\) = 200

\(N_B\) = 200

400

Le contexte : les paramètres

  • \(N_A\) et \(N_B\)

  • succès \(x_A\) et \(x_B\)

  • taux de succès \(x_A/N_A\) et \(x_B/N_B\)

Le contexte : les indices quantifiant l'effet du traitement

  • soit \((x_A/N_A) = p_A\) et \(p_B= (x_B/N_B)\)

    alors :

  • la différence de risque : \( DR = p_A - p_B\)

  • le risque relatif : \(RR = p_A / p_B\)

  • l'odds-ratio \(OR = (p_A \times (1-p_B)) / (p_B \times (1-p_A))\)

  • le nombre nécessaire à traiter : \(NNT = \frac{1}{|p_A - p_B|}\)

Il existe d'autres indices de taille d'effet.

Quelques remarques sur les tables de contingences

→ il existe différentes façons de constituer un échantillon dans une table \(2 \times 2\)

  1. aucune marge fixée : on échantillonne un effectif total \(N\) sans s'occuper de la répartition selon les 2 variables

  2. une marge fixée : l'une des variables est une variable de groupe dont les effectifs sont choisis ou déterminés et on échantillonne dans chacun des deux groupes, indépendamment

  3. deux marges fixées : la répartition suivant chaque marge est connue avant de recueillir les données et il reste à observer la façon dont les données se combinent sur ces deux variables

ExempleExemple 1 : aucune marge fixée

  • on constitue un échantillon de \(N\) lycéens

  • on classe les lycéens selon leur sexe et leur consommation de tabac

  • on ne connaît pas à l'avance la façon dont les données se répartissent dans les marges

une enquête de population

Filles

Garçons

Total

Fumeurs

35

55

90

Non-fumers

87

63

150

Total

122

118

240

ExempleExemple 2 : une marge fixée

  • un essai thérapeutique

  • les effectifs de chaque groupe sont fixés avant la réalisation de l'essai thérapeutique par choix ou par calcul de nombre de sujets nécessaire

  • et donc la répartition suivant l'une des marges est connue avant l'étude car déterminée pour pouvoir constituer l'échantillon de deux groupes

un essai thérapeutique

TMT A

TMT B

Total

Succès

110

85

195

Échecs

90

115

205

Total

200

200

400

ExempleExemple 3 : deux marges fixées

  • situation très rare

  • exemple de la « vieille dame anglaise » et du thé, de R.A. Fisher

  • thé avant le lait (4 tasses) ou lait avant le thé (4 tasses)

  • puis dégustation en aveugle

  • la « old Lady » sait qu'elle doit donner 4 réponses « thé avant le lait » et 4 réponses « thé après le lait »

  • donc marges complètement connues avant de recueillir les résultats de l'expérience

The Old Lady (R.A. Fisher)

Thé avant

Thé après

Total

dit thé avant

3

1

4

dit thé après

1

3

4

Total

4

4

8

On se restreint ici au cas de deux groupes parallèles donc une marge fixée

  • Les autres cas rapidement :

    • aucune marge fixée : loi de Dirichlet (extension des Beta())

    • deux marges fixées : loi hypergéométrique (uniquement dans OpenBUGS)

Retour au problème de base : comment comparer deux proportions ?

Soit deux groupes \(G_1\) et \(G_2\)

  • un critère de jugement / une variable binaire

  • dans chaque groupe estimation d'une proportion

→ comment comparer les taux de succès / les deux proportions des deux groupes avec une méthode bayésienne ?

→ comment quantifier la différence de taux de succès / les deux proportions entre les deux groupes ?

La solution

  • très proche de l'estimation et du test d'une proportion

  • \(p\) suit une loi Beta dans chaque groupe

  • donc \(p_A \sim Beta_A(\alpha_A ; \beta_A)\) et \(p_B \sim Beta_B(\alpha_B ; \beta_B)\)

  • solution non analytique → McMC

  • détermination des indices de taille d'effet quantifiant la « différence » entre proportions à partir des chaînes McMC

RemarquesRemarques importantes :

  • différence de risque (DR), risque relatif (RR), odds-ratio (OR) sont calculés indirectement

  • il n'y a pas de loi a priori directement sur ces paramètres

  • l'expression d'un prior pour DR, RR ou OR est délicate

  • la solution : passage à un modèle