Valeur de Shapley


Les valeurs de Shapley sous-tendent l’une des méthodes d’analyse de modèle les plus populaires au sein de l’intelligence artificielle explicable. Elles sont conçues pour attribuer la différence entre la prédiction d’un modèle et une base de référence moyenne aux différentes caractéristiques utilisées en entrée du modèle. Basées sur des principes solides de la théorie des jeux, elles satisfont de manière unique plusieurs propriétés souhaitables. C’est pour cela qu’elles sont de plus en plus utilisées pour expliquer les prédictions de modèles d’apprentissage automatique éventuellement complexes et hautement non linéaires. Les valeurs de Shapley correspondent bien à l’intuition de l’utilisateur lorsque les caractéristiques sont indépendantes. Mais, elles peuvent conduire à des explications indésirables et contre-intuitives lorsque l’hypothèse d’indépendance est violée.

Pourquoi utiliser cette méthode d’analyse ?

La valeur de Shapley est un concept de solution utilisé dans la théorie des jeux qui consiste à répartir équitablement les gains et les coûts entre plusieurs acteurs travaillant en coalition. On parle de théorie des jeux lorsque deux ou plusieurs acteurs ou facteurs sont impliqués dans une stratégie visant à obtenir un résultat ou un gain souhaité. La valeur de Shapley s’applique principalement dans les situations où les contributions de chaque acteur sont inégales, mais où chaque joueur travaille en coopération avec les autres pour obtenir le gain ou le paiement.

En effet, elle garantit que chaque acteur gagne autant ou plus que s’il agissait indépendamment. La valeur obtenue est essentielle car, sinon, les acteurs ne sont pas incités à collaborer. La valeur de Shapley – qui doit son nom à Lloyd Shapley – a de nombreuses applications, notamment dans les affaires, l’apprentissage automatique et le marketing en ligne.
Une prédiction peut être expliquée en supposant que chaque valeur de caractéristique de l’instance est un « joueur » dans un jeu où la prédiction est le gain. Les valeurs de Shapley nous indiquent comment répartir équitablement le « gain » entre les caractéristiques.

Application à un modèle d’apprentissage automatique

L’idée centrale derrière les explications des modèles d’apprentissage automatique qui se basent sur la valeur de Shapley est d’utiliser les résultats d’allocation équitable de la théorie des jeux coopératifs pour allouer le crédit pour la sortie d’un modèle 𝑓(𝑥) parmi ses caractéristiques d’entrée. Afin de relier la théorie des jeux aux modèles d’apprentissage automatique, il est nécessaire de faire correspondre les caractéristiques d’entrée d’un modèle aux joueurs d’un jeu, et de faire correspondre la fonction du modèle aux règles du jeu. Puisque dans la théorie des jeux, un joueur peut rejoindre ou ne pas rejoindre un jeu, nous avons besoin d’un moyen pour qu’une caractéristique puisse « rejoindre » ou « ne pas rejoindre » un modèle. La façon la plus courante de définir ce que signifie pour une fonctionnalité de « rejoindre » un modèle est de dire que cette fonctionnalité a « rejoint un modèle » lorsque nous connaissons la valeur de cette fonctionnalité, et qu’elle n’a pas rejoint un modèle lorsque nous ne connaissons pas cette valeur.

Aller en haut