A.15 Identification des effets causaux moyens à l’aide des poids définis à partir du score de propension

À retenir

Sous les hypothèses d’indépendance conditionnelle et de support commun, on peut définir à partir du score de propension des poids à appliquer aux données, de telle sorte que lorsque l’on utilise cette nouvelle pondération, la différence de la moyenne de la variable d’intérêt dans toute la population, entre les individus qui font l’objet de l’intervention et ceux qui n’en font pas l’objet est égale à l’effet causal moyen de l’intervention dans toute la population.

Le jeu de poids que l’on utilise est défini par :

\[w(d, x):=\left\{\begin{array}{l} \frac{\mathbb{P}(D_i=1)}{p(x)}\mbox{ si } d=1\\ \frac{1-\mathbb{P}(D_i=1)}{1-p(x)}\mbox{ si } d=0 \end{array}\right.\]

Pour vérifier que la distribution des caractéristiques observables \(X\), lorsque l’on pondère par ces poids, est la même dans chaque groupe défini par le fait de faire l’objet ou non de l’intervention, on considère une fonction quelconque \(f\) et on s’intéresse à la moyenne de \(f(X_i)\) dans le groupe de ceux qui font l’objet de l’intervention (\(D_i=1\)). Cette moyenne est égale à : \[\begin{align} & \mathbb{E}[w(D_i, X_i)f(X_i) \mid D_i=1] \nonumber \\ =& \mathbb{E}[w(1, X_i)f(X_i) \mid D_i=1] \nonumber \\ =& \mathbb{E}\left[\mathbb{E}[w(1, X_i)f(X_i) \mid p(X_i), D_i=1] \mid D_i=1\right] \nonumber \\ =& \mathbb{E}\left[\mathbb{E}[w(1, X_i)f(X_i) \mid p(X_i)] \mid D_i=1\right] \nonumber \\ =& \mathbb{E}\left[\frac{\mathbb{P}(D_i=1)}{p(X_i)}\mathbb{E}[f(X_i) \mid p(X_i)] \mid D_i=1\right] \nonumber \\ =& \sum_p \frac{\mathbb{P}(D_i=1)}{p} \mathbb{E}[f(X_i) \mid p(X_i)=p] \mathbb{P}(p(X_i)=p \mid D_i=1) \nonumber \\ =& \sum_p \frac{\mathbb{P}(D_i=1)}{p} \mathbb{E}[f(X_i) \mid p(X_i)=p] \frac{\mathbb{P}(p(X_i)=p)}{\mathbb{P}(D_i=1)}\mathbb{P}(D_i=1 \mid p(X_i)=p) \nonumber \\ =& \sum_p \frac{\mathbb{P}(D_i=1)}{p} \mathbb{E}[f(X_i) \mid p(X_i)=p] \frac{\mathbb{P}(p(X_i)=p)}{\mathbb{P}(D_i=1)}p \nonumber \\ =& \sum_p \mathbb{E}[f(X_i) \mid p(X_i)=p] \mathbb{P}(p(X_i)=p) \nonumber \\ =& \mathbb{E}[f(X_i)] \nonumber \\ \end{align}\] La première égalité utilise simplement le fait que l’on raisonne seulement à l’intérieur du groupe qui a fait l’objet de l’intervention. La deuxième est une application de la loi des espérances itérées. La troisième utilise la propriété équilibrante du score de propension : \(w(1, X_i)f(X_i)\) est une fonction des caractéristiques observables, donc à l’intérieur de strates définies par la valeur du score de propension, sa moyenne dans le groupe de ceux qui font l’objet de l’intervention est égale à sa moyenne dans toute la strate. La quatrième égalité revient simplement à la définition du poids \(w(d, x)\), et la cinquième revient à la définition de l’espérance conditionnelle. La sixième applique la formule de Bayes, et la septième utilise le fait que, dans une strate définie par la valeur du score de propension, la probabilité de faire l’objet de l’intervention est égale au score de propension. La huitième procède simplement à des simplifications algébriques, et la dernière est une nouvelle application de la loi des espérances itérées.

Le même procédé s’applique sans difficulté particulière pour montrer qu’avec ce jeu de poids, la distribution des caractéristiques observables dans le groupe des individus qui ne font pas l’objet de l’intervention est la même que dans la population prise toute entière.

Il reste à montrer que la distribution des valeurs potentielles de la variable d’intérêt, selon que l’on fait ou non l’objet de l’intervention, est la même que la population prise dans son ensemble lorsque l’on utilise le jeu de poids. Pour cela, on considère une fonction quelconque \(g\) des valeurs potentielles de la variable d’intérêt \((Y_i(0), Y_i(1))\), et on s’intéresse à sa moyenne dans un de ces groupes désigné par \(d\) pris dans \(\{0,1\}\) : \[\begin{align} &\mathbb{E}[w(D_i, X_i)g(Y_i(0), Y_i(1)) \mid D_i=d] \nonumber \\ =&\mathbb{E}\left[\mathbb{E}[w(D_i, X_i)g(Y_i(0), Y_i(1)) \mid X_i, D_i=d]\mid D_i=d\right] \nonumber \\ =&\mathbb{E}\left[w(D_i, X_i)\mathbb{E}[g(Y_i(0), Y_i(1)) \mid X_i, D_i=d]\mid D_i=d\right] \nonumber \\ =&\mathbb{E}\left[w(D_i, X_i)\mathbb{E}[g(Y_i(0), Y_i(1)) \mid X_i]\mid D_i=d\right] \nonumber \\ =&\mathbb{E}\left[\mathbb{E}[g(Y_i(0), Y_i(1)) \mid X_i]\right] \nonumber \\ =&\mathbb{E}[g(Y_i(0), Y_i(1))] \nonumber \\ \end{align}\] La première égalité est une application de la loi des espérances itérées. La deuxième utilise les propriétés fondamentales de l’espérance conditionnelle. La troisième découle de l’hypothèse d’indépendance conditionnelle : à l’intérieur d’une strate définie par la valeur prise par les variables de conditionnement, on peut raisonner comme si on faisait une expérience aléatoire contrôlée ou si on étudiait une expérience naturelle, et l’assignation à l’intervention est indépendante des valeurs potentielles de la variable d’intérêt. La quatrième utilise le résultat précédent : \(\mathbb{E}[g(Y_i(0), Y_i(1)) \mid X_i]\) est une fonction qui ne dépend que des caractéristiques observables définies par les variables de conditionnement, par conséquent sa moyenne dans le groupe \(D_i=d\) lorsque l’on utilise le nouveau jeu de poids est égal à sa moyenne dans toute la population. La dernière égalité exploite une dernière fois la loi des espérances itérées.