Emmanuel Trizac, président de l'ENS de Lyon, évoque dans une interview à la Tribune de Lyon les vastes enjeux portés par le projet AIlyS dont l'objectif est de faire de Lyon un pôle d'excellence français sur l'intelligence artificielle.
Interview réalisée par David Gossart et reproduite ci-dessous avec l'aimable autorisation de la Tribune de Lyon.
En quoi Lyon est-elle légitime pour porter un projet aussi ambitieux sur l’IA ?
Emmanuel Trizac : « Il y a deux raisons : la première, c’est qu’aujourd’hui, l’IA a investi tous les champs de la recherche. Tous les domaines sont concernés, y compris le droit ou la philosophie. Il y a de vrais défis de société qui y sont associés. La seconde raison, c’est qu’il y a des ressources fortement positionnées sur l’IA sur le site de Lyon – Saint-Étienne. Plus de 250 chercheurs et enseignants-chercheurs travaillent sur le sujet. Ce qu’il nous faut, c’est coordonner cet effort. C’est comme ça que se développera une IA au bénéfice de la société et non au profit d’acteurs privés. L’idée étant maintenant d’ajouter l’apport des sciences humaines et sociales au développement même de l’IA.
En quoi les sciences sociales sont-elles concernées par l’intelligence artificielle ?
Ça se joue à plusieurs niveaux. Par exemple, aujourd’hui, l’IA écrit en quelque sorte son propre programme elle-même, comme s’il y avait 100 milliards de boutons et qu’on laissait les réglages se faire en se basant sur les exemples qui nourrissent la machine. C’est la première source de biais, de genre, de couleur de peau, de tout ce qui définit un individu. C’est là que l’apport des sciences humaines et sociales est important. Et c’est un des angles morts de l’IA les plus évidents.
Vous devez essayer de rendre l’IA plus vertueuse ?
Absolument, c’est le but. Il y a un certain nombre de défis communs, mais aussi des objectifs. Essentiellement deux : avoir une IA fiable et responsable, au bénéfice de la société. Et un impératif de frugalité, de parcimonie. Ces objectifs ne sont pas forcément compatibles avec la performance brute, l’objectif longtemps assigné à l’IA. Mais c’est un front essentiel où les forces de recherche doivent être au rendez-vous.
On a du mal à imaginer l’IA, gourmande en énergie, devenir « frugale »… Est-ce vraiment envisageable ?
Bien sûr. L’IA peut être beaucoup plus vertueuse qu’elle ne l’est aujourd’hui. On a des outils théoriques pour traiter des enjeux contradictoires, c’est ce que fait la physique quotidiennement. On peut assigner une tâche à l’IA et minimiser l’impact de la performance en incluant, dès le début, la frugalité dans le cahier des charges du projet, au lieu de mettre la performance en premier, et de tenter de corseter par la suite. Car s’il faut multiplier par 10 les besoins énergétiques pour gagner 3 % de performance, ça ne vaut pas le coup.
Comment pouvez-vous espérer apporter des solutions sur le problème des biais issus des bases de données utilisées par les IA ?
Le premier niveau qui nous concerne porte directement sur la fiabilité de données : elles sont ingérées par les IA, mais aussi produites par elles, et elles vont être à leur tour ingérées par d’autres IA. On est en train de perdre complètement la traçabilité de la source. C’est catastrophique. On est, nous, bien placés pour concevoir des IA, pourquoi pas avec des acteurs privés, qui auront des données de qualité, fiables et référencées, connues pour le rester. Là où l’on peut aussi intervenir, c’est dans la compréhension des instabilités qui se produisent et aboutissent à des biais. Les créateurs ne comprennent pas, n’y ont pas encore réfléchi car cela émerge de l’usage, et on en est encore aux balbutiements. Une question centrale, c’est comment on algorithmise les différences sociales.
C’est-à-dire ?
La question, c’est comment les IA peuvent absorber ces éléments sociaux au sein d’une communauté précise. Twitch vient de lancer des agents conversationnels de communauté, et des travaux montrent que l’IA finit par se comporter comme la communauté au sein de laquelle elle “travaille”. Tout ça n’est pas maîtrisé, compris. Le regard des sociologues sur ces personnes virtuelles est un nouveau champ qui s’ouvre. Et, autre question : comment cela agit-il, en rétroaction, sur les humains eux-mêmes ? Les biais sont-ils amplifiés par certains réseaux sociaux ? Une étude récente de France Stratégie montre que les stéréotypes sexistes sont plus marqués chez les 15-25 ans. L’IA n’a pas été conçue comme radicale, mais elle peut le devenir au contact d’une communauté et agir sur elle en retour. Comment contrôler ça ? Cela débouche sur des questions de pouvoirs publics, de politique, des questions sociales centrales.
Mais c’est compliqué d’avoir accès à ce qu’il y a dans la « boîte noire » de ces algorithmes ?
Oui, y compris pour leurs propres concepteurs, ce sont des boîtes noires. Mais on connaît parfaitement l’état interne de la machine, la valeur de chacun des 100 milliards de variables. Mais la propriété collective qui en émerge, et qui se traduit par exemple par un biais sexiste, c’est ça qui est compliqué à analyser pour l’humain qui n’est pas armé pour ça. L’explicabilité de la décision prise, c’est un champ de recherche. Car, aux États-Unis, certains procès sont adossés à des IA : une décision d’envoyer quelqu’un en prison peut être basée sur la probabilité de récidive. On a besoin de pouvoir expliquer.
Et de légiférer.
Absolument. C’est là que l’on a besoin des collègues juristes. Il y a d’immenses questions légales qui se posent. C’est la première fois dans l’histoire de la diffusion de l’information qu’apparaît un acteur autonome qui peut influencer. Mais derrière, ce sera au politique d’agir. L’IA, c’est une question qui interroge la démocratie, et ce qu’on appelle le “vrai”. La démocratie, ça n’est pas seulement un vote, mais les conditions dans lesquelles il intervient. On ne pourra pas ne pas réguler, ça n’a pas de sens.
De même pour la consommation d’énergie, qui explose de manière exponentielle avec des serveurs surutilisés pour générer des images, des vidéos. Que faire ?
Ça va très vite, on a besoin d’éduquer : quand je fais telle recherche, que je génère une image, quelles sont les ressources nécessaires ? Beaucoup de gens n’en ont pas conscience. On peut penser que la direction dans laquelle on est engagés n’est pas la plus souhaitable, cela va demander des changements assez majeurs. D’où l’importance d’avoir des outils qui encaissent ces contraintes dès le début, et ne mettent pas la performance d’abord. Il faut que cela marche. Mais pas à tout prix. »
Mots clés