Uncategorized
09/04/2018

AI & Society : quelle éthique pour l’intelligence artificielle ?


Temps de lecture : 8 minutes
Quantmetry.com : AI & Society : quelle éthique pour l’intelligence artificielle ?

Quantmetry est allé au meetup AI & Society du 3 avril dernier. Voici ce que l’on en a retenu.

COMMENT PENSER UNE DÉONTOLOGIE DE LA DATA ?

Assael Dary, Président du cabinet Occurrence

« Plus j’ai de données, plus j’ai l’impression de mentir au client. »

Dès le départ, Assael Dary donne le ton : s’il est pour le développement de l’intelligence artificielle, il est également conscient des difficultés qui émergent avec les nouvelles technologies. Il se définit lui-même comme étant un data deontologist.

En effet, l’afflux de données pose plusieurs questions aussi bien philosophiques que juridiques et éthiques. Prenons l’exemple des données d’objets connectés IoT (Internet of Things). Vous êtes titulaires d’une dent connectée qui mesure par exemple le taux de sucre de vos aliments, ou d’un cardiofréquencemètre sportif qui vous renseigne sur votre rythme cardiaque. Vous avez acheté l’objet de mesure, mais avez-vous également acheté les données qu’il génère ? Qui est propriétaire des données générées ? Quel degré de confiance peut-on attribuer à ces données (se fier à votre fitbit plutôt que votre cardiologue) ? Et enfin, est-ce que vos données vous représentent, réellement ? Dans tous les cas, la véracité reste un enjeu primaire : “le marché de la donnée, c’est le marché de la confiance”.

Aux Etats-Unis par exemple, on assiste à ce genre de situations. D’un côté, les objets connectés servent de témoins dans les affaires criminelles (« Mais non je n’ai pas tué ma femme. – Ce n’est pas ce que dit votre horloge connectée qui vous a entendu rentrer à la maison à 16h16. »). De l’autre, les objets connectés comparaissent du mauvais côté de la barre, et sont accusés d’être non-fiables, notamment pour les données physiologiques. On assiste donc à une schizophrénie où la fiabilité et la véracité des IoT, finalement… ça dépend.

En France également, la schizophrénie est de mise, avec l’exemple criant du nombre de manifestants : chiffres de la police, chiffres des organisateurs, qui croire quand tous les acteurs sont juges et parties ? C’est précisément dans l’idée d’un « tiers de confiance » que le cabinet Occurrence a décidé de prendre le problème à bras-le-corps, en rendant public ses données et sa méthodologie, qui a été vérifiée par plusieurs journalistes, à la main.

A l’ère de la post-vérité (l’art d’ignorer des faits avérés), des faits alternatifs, et du relativisme (l’art de prouver tout et son contraire avec un pourcentage bien choisi), Assael Dary défend l’idée d’un tiers de confiance, qui fasse foi dans la fiabilité des données et énonce un cadre juridique cohérent. Pour lui, la RGPD (Règlement Général sur la Protection des Données) est une aubaine, car elle répond à des attentes croissantes de la société et permettra de lever le flou juridique ambiant. Bien sûr, il ne sera pas possible de pallier toutes les dérives, et comme en matière de fiscalité, des cabinets spécialisés sont d’ores et déjà en train de se spécialiser dans l’art du « légal mais pas moral », proposant ainsi une forme d’optimisation éthique. Une déontologie de la data ? Elle reste à construire.

QUEL BUSINESS POUR LES IA ÉTHIQUES ?

Olivia Vigouroux, direction des canaux numériques GMF

«Il faudrait faire attention à ce que la France ne devienne pas une spécialiste de l’éthique en intelligence artificielle quand les Etats-Unis et la Chine font du business.».

C’est par cette citation d’Antoine Petit, actuel président du CNRS, qu’Olivia Vigouroux débute sa présentation. Pour elle, l’IA est une innovation parmi d’autres. L’épopée de la voiture est prise à témoin : si l’on considère la machine voiture, c’est en effet un bolide d’acier qui, lancé à pleine vitesse, devient une arme de mort et de chaos. Cela n’a pas empêché cette technologie d’émerger, en étant accompagnée d’un cadre juridique strict, que sont le code de la route et le permis de conduire.

Aujourd’hui, l’IA est au cœur de l’actualité et nourrit des craintes justifiées : pour la première fois une voiture Uber sans conducteur a tué un civilFacebook est empêtré dans l’affaire Cambridge Analytica, et selon Cathy O’Neil, l’auteure de Weapons of Math Destruction, la crise des subprimes a été accentuée par des décisions prises par des intelligences artificielles.

Pour Olivia Vigouroux, ces craintes, il faut y répondre justement. Avec une éthique dédiée, sans castrer la créativité et la compétitivité. Historiquement, au cours du développement industriel du XXe siècle, l’éthique est même devenue une préoccupation de plus en plus prégnante dans la société, si bien que nombre d’entreprises qui ont investi dans un volet sociétal ont obtenu une croissance plus élevée que des concurrents prônant le statu quo. L’éthique est donc une source de croissance, car c’est une attente de la société.

L’oratrice illustre son argumentaire avec le cas de la GMF, qui a développé deux cas d’usage d’apprentissage automatique (machine learning) : un modèle anti-résiliation, et un bot contacts, tous deux basés sur du traitement automatique du langage. Ainsi, dès qu’un client est identifié comme étant susceptible de résilier, il est contacté par son conseiller qui est à l’écoute de ses attentes et de ses doléances. Ainsi, cela offre un moment d’expression au client, et un moment d’écoute au conseiller. Le client est ainsi plus humanisé, et la GMF reprend sa casquette de conseiller, et non plus de vendeur. L’IA a donc permis d’humaniser ses relations clients/conseillers, en pointant du doigt justement les fragilités du système existant et en aidant à une prise de décision orientée vers le dialogue.

A travers cet exemple, il s’agit de démontrer l’aspect progressiste de l’intelligence artificielle. A contre-pied d’un discours de la peur, le discours est celui d’une IA au service de la société, et non pas contre la société.

Les réactions de l’assistance ne se sont pas faites attendre : « mais si l’éthique devient un levier économique, est-ce encore de l’éthique ? La morale, n’est-ce pas justement quand personne ne nous regarde, personne ne nous contraint ? ». Or, la morale n’est pas l’éthique. La morale vise à distinguer le bien du mal, quand l’éthique est un ensemble de règles issues d’une réflexion commune qui vise justement à définir le bien-agir. Pourvu qu’on se donne les moyens de cette réflexion commune, avec par exemple le cadre juridique de la RGPD, l’intelligence artificielle n’est pas incompatible avec l’éthique. Et encore moins avec l’innovation.

COMMENT ENVISAGER L’ÉTHIQUE DANS LES ENJEUX SOCIÉTAUX DE L’IA ?

Andy McDonald, product Manager chez TECH’advantage

Notre dernier speaker, formé en tant que social psychologist, nous propose une vue plus globale des enjeux liés à l’IA, au travers de questions éthiques amenées par différentes actualités.

En premier lieux, c’est Linkedin qui est décortiqué. Le système de likes est présenté comme produisant des “taches d’huile”. A titre d’exemple, un like provenant d’un de vos contacts Linkedin se répand sur votre réseaux via votre propre like, ce type de mécanisme enfermant les utilisateurs dans une forme de communautarisme digital.

A cela s’ajoute d’autres observations : le nombre de posts global a particulièrement augmenté ces deux dernières années, ainsi que la capacité de chacun à poster. En parallèle, la capacité de chacun à lire une information réellement nouvelle s’est vu réduite. Nous finissons donc sur cette déception : plus d’information pour moins de savoir.

Nous continuons, Andy McDonald nous fait part de ses doutes quant à la capacité des IA à analyser les comportements humains : “Facebook veut prédire la propension au suicide d’un utilisateur, à partir des messages échangés. Là, c’est le psychologue qui parle : c’est impossible”.

L’intelligence artificielle commence également à s’immiscer dans la surveillance et le domaine judiciaire. C’est le cas par exemple de la société Palantir, qui s’est spécialisée dans le prédiction des risques criminels, et dont l’un des clients est la DGSI (Direction Générale de la Sécurité Intérieure). Il s’agit de donner un score de risque de passage à l’acte pour des individus surveillés, un peu à la manière du célèbre roman de Philip K. Dick « The Minority Report », où la notion de pré-crime autorise la police à arrêter des individus avant qu’ils ne commettent un crime. Ce qui est en totale contradiction avec le droit actuel et la présomption d’innocence.

Côté éducation enfin, le remplacement des professeurs par des IA semble compromise, car “on ne transmet pas seulement un savoir, mais aussi un comportement humain”.

CE QUE NOUS AVONS RETENU

Ethique et intelligence artificielle, le mariage impossible ? Nous voyons que deux points de vue s’opposent. D’un côté l’aspect techno-critique, qui considère que l’intelligence artificielle est d’abord un danger, qu’il faut réguler de toute urgence. De l’autre, le techno-optimisme, qui considère l’intelligence artificielle est d’abord un progrès, qu’il faut cultiver.

Ce qui a émergé au cours des débats, c’est finalement que les deux positions ne sont pas incompatibles, et qu’elles diffèrent principalement par l’ordre des priorités plutôt que par le contenu. Ainsi, le consensus était en effet qu’une régulation de l’intelligence artificielle était indispensable. Elle permettra de lever le flou sur les aspects juridiques de l’utilisation des données, tout en offrant à la société l’occasion de définir des règles et donc une éthique commune. Une fois ces règles établies, cela permettra de développer plus en avant les problématiques d’intelligence artificielle et ses applications, dans un climat assaini par une réflexion et une discussion bilatérale.

Si tout n’a pas été abordé, plusieurs questions restent en suspens. A l’image des médecins, quid d’un serment d’Hippocrate propre aux data scientists ? Ne serait-il pas plus efficace de responsabiliser officiellement et personnellement chaque professionnel de la donnée, plutôt que de diluer la responsabilité dans une surcouche administrative et juridique ? Si « un grand pouvoir implique de grandes responsabilités », c’est aussi à nous, data scientists, de s’imprégner de l’éthique telle que notre société la définit, et d’agir en accord avec elle. « Je suis seulement data scientist » n’est pas une excuse, c’est aussi une opportunité : celle d’être vecteur de progrès. Pour tous.

Aller en haut