Education et AI : retours sur l’intervention de Cédric Villani à l’Unesco

Education et AI : retours sur l’intervention de Cédric Villani à l’Unesco

Dans le cadre de la Mobile Learning Week 2018 organisée il y a quelques semaines par l’Unesco, Quantmetry a été invité au Strategy Lab sur le sujet “Implications of Artificial Intelligence (AI) for education”. Nous avons pu en particulier écouter l’intervention hors programme de Cédric Villani, au lendemain de la présentation publique de son rapport sur les enjeux de l’intelligence artificielle que nous avons commenté dans un autre article. Ici, vous pourrez trouver les messages clés ainsi que quelques réflexions supplémentaires.

AI et éducation : une priorité ?

Récemment, de plus en plus d’investissements publics et privés ont été débloqués dans le domaine de l’intelligence artificielle, mais l’éducation n’est pas (pour l’instant) considérée comme un secteur prioritaire. Pour ce qui nous concerne, l’Europe doit aussi  rattraper son retard par rapport à l’Asie et aux US, qui ont déjà tenté des expérimentations (avec des résultats pas toujours exaltants).

Les raisons de ce manque de confiance sont multiples, mais nous pouvons déjà remarquer un climat de méfiance. D’un côté, les enseignants craignent une vision trop capitalistique de la connaissance et une possible limitation des libertés personnelles (avec le cauchemar d’une potentielle utilisation des données des enfants par les GAFA, et la peur de permettre à un big brother de rentrer dans les salles de classe). De l’autre, les champions des nouvelles technologies perçoivent l’école comme un secteur hyper traditionnel, statique, fermé aux innovations.

Ces craintes sont naturelles, et il faudra construire un dialogue entre les parties, pour que chacun comprenne les contraintes de l’autre. Une meilleure intégration entre AI et système éducatif pourra avoir des impacts positifs, car les spécificités de ce dernier (beaucoup de paramètres complexes à prendre en compte, besoin d’adapter les solutions trouvées en permanence) semblent pouvoir être bien adressées par les méthodes de machine learning.

Personnalisation oui, mais avec prudence

L’un des premiers cas d’usage de l’intelligence artificielle est la personnification des contenus présentés aux utilisateurs; pensons à la personnalisation des moteurs de recherche comme Google ou aux moteurs de recommandation pour mieux naviguer parmi les produits proposés par Amazon et les séries mises à disposition par Netflix.

Cette personnalisation, en soi très utile pour chacun, peut aussi avoir des effets négatifs. Chaque personne risque finalement de ne recevoir que les messages alignés avec ses connaissances précédentes, ses principes, sa vision du monde, limitant sa possibilité de découvrir de nouveaux points de vue (pensons au risque de partialité en s’informant exclusivement via le news feed sur Facebook ou Twitter) : cet effet est connu comme “filter bubble”, et risque d’empêcher de plus en plus la construction d’un ensemble de connaissances partagées par les citoyens.

Dans l’enseignement, il faudra rester encore plus attentif à ce risque, car une “filter bubble” est complètement opposé au principe d’étudier afin d’accroître ses compétences et connaissances. Une école où les élèves ne sont jamais mis face aux choses qu’ils ne connaissent pas est une école inutile par définition.

Mais nous ne devons pas forcément exclure l’idée d’une personnalisation du système éducatif : il faudra juste l’adopter de manière moins naïve. Pour reprendre la métaphore proposée par M. Villani, la connaissance peut être imaginée comme un ballon qui se gonfle de plus en plus, avec dedans ce que nous connaissons et dehors ce que nous ne connaissons pas (encore). Une éducation efficace doit proposer du contenu proche de la démarcation entre ces deux régions, pour qu’il ne soit pas ni trop compliqué (et donc incompréhensible), ni trop facile (et donc inintéressant). Dans le futur, l’AI pourra nous aider à identifier cette frontière propre à chaque étudiant, afin de faire gonfler le ballon de ses compétences le plus rapidement possible sur la base de son parcours précédent et de ses spécificités.

Évaluer grâce à l’IA, évaluer l’IA : un sujet brûlant

Estimer l’efficacité d’une méthode d’enseignement a toujours été difficile, car les résultats finaux dépendent de facteurs divers et variés qui ne peuvent pas toujours être mesurés. Des expérimentations aux US avaient donnés des résultats très fluctuants d’une année sur l’autre, à enseignant et méthodes égales ! Nous pouvons bien imaginer qu’évaluer la valeur d’une didactique orientée AI n’enlèvera pas ces problèmes déjà existants pour une didactique traditionnelle, et au contraire en rajoutera d’autres.

Mais si évaluer l’IA est trop compliqué, est-ce que nous pourrions plutôt utiliser l’IA pour évaluer les étudiants de manière plus “objective” ? Le sujet n’est pas simple : une trop forte quantification de la connaissance pose des contraintes à la manière de tester les compétences acquises (en obligeant à utiliser de tests à choix multiple par exemple) et même, indirectement, à la manière d’enseigner.  Quand on considère qu’une intelligence artificielle a réussi l’examen d’admission à une université japonaise avec un très bon score, on se demande ce que ces examens sont vraiment en train de mesurer. Dans la vision de M. Villani, les interactions de plus en plus fortes entre AI et éducation nous forceront à trouver une nouvelle définition de la compréhension humaine (par rapport à la non-compréhension d’un robot), ainsi qu’à identifier des manières pour la mesurer. Cette réflexion ne peut pas aboutir à une réponse définitive, mais cela n’empêche qu’une discussion publique et partagée soit complètement nécessaire et doit avoir lieu au plus vite.

 

Éduquer à l’IA : une priorité pour former les nouveaux citoyens

Il est aussi crucial de réfléchir à la façon d’éduquer les jeunes à l’intelligence artificielle. Ces sujets, techniques au premier regard, ont des impacts sur la vie de l’ensemble de la population : tout le monde se doit de les comprendre, au moins dans leurs principes de base.

M. Villani propose des formations en raisonnement algorithmique, sujet beaucoup plus vaste qu’une simple introduction à la programmation et inexistante ou presque à ce jour.

Comment interagir avec les machines ? Qu’est-ce que une intelligence artificielle peut ou ne peut pas faire pour nous ? Ce sont des questions avec un impact sociétale fort, et qui doivent nécessairement être abordées au cours de l’éducation pour donner aux futurs citoyens les instruments pour comprendre et profiter au mieux des avancées technologiques.

Enfin, chacun doit comprendre pourquoi l’intelligence artificielle doit parfois être contrôlée. Les modèles ne font aucun effort pour comprendre le monde que nous souhaiterions, mais se limitent à comprendre le monde comme il est. Les modèles d’analyse de langage donnant des résultats “sexistes” avaient fait scandal, mais ils avaient juste appris des régularités existantes dans les textes d’entraînement. Si nous voulons éviter ces résultats, nous devons expliciter à l’avance au modèle comment et dans quelles conditions il doit nous “mentir” ; si on le fait pas, les modèles (en théorie plus neutres) vont reproduire les mêmes erreurs de notre passé.

Conclusions

Nous repartons de cette intervention très riche (ainsi que du reste de ce Strategy Lab) avec  beaucoup de questions ouvertes : le sujet est loin d’être complètement compris et les évolutions au cours des prochaines années restent en bonne partie imprévisibles. Elle nous donne aussi envie de continuer cette réflexion, d’impliquer les éducateurs pour profiter de leur expérience, d’élargir le plus possible la discussion à l’ensemble de la société.

Quand les réponses semblent trop difficiles à trouver, il faut déjà réfléchir aux bonnes questions à se poser : c’est cela que nous avons commencé à faire, et que chaque personne ayant participé à la journée continuera à faire de son côté en ouvrant la discussion à ses proches et ses collaborateurs.