« La problématique n’est pas dans la technique mais dans notre capacité à aborder le phénomène politiquement »

16 min de lecture

Le rapport de Cédric Villani de 2018 émettait de nombreuses préconisations, comme celles de créer un réseau d’instituts interdisciplinaires spécifiques et un comité d’éthique de l’IA, de mettre en place des centres de calcul conçus pour les applications de l’IA, ou encore de rendre plus attrayantes les carrières dans la recherche publique afin d’éviter la fuite des cerveaux. Et enfin : se préoccuper de l’IA « avant qu’il ne soit trop tard ». Cinq ans plus tard, bilan.

Par Anne-Cécile Huprelle

Cinq ans après la remise de votre rapport, feriez-vous le même constat et les mêmes préconisations sur l’IA ?

Avec les éléments dont je disposais à l’époque, je ferais les mêmes préconisations et les mêmes constats. Avec le recul de ces cinq années, je nuancerais certaines choses, bien sûr. Tout d’abord, le rapport s’est durement heurté, sur plusieurs angles, au fait que les obstacles les plus importants, les défis les plus grands, viennent davantage de la sphère politique et de la société que de la sphère scientifique. J’en étais conscient à l’époque, mais je sous-estimais encore à quel point. Prenez la santé : une plateforme nationale de données de santé a été créée, et des personnes compétentes ont été recrutées… Mais le projet est toujours entravé dans son fonctionnement par les hésitations du pouvoir liées à la sensibilité des bases de données et par les rapports de pouvoir entre différentes institutions. On pourrait en dire autant de certaines expérimentations dans les administrations, restées sans lendemain, ou du développement de plateformes sectorielles de données qui n’ont pas été lancées : chaque fois les enjeux politiques et sociaux, la confiance entre les parties prenantes étaient les principaux obstacles. Mais certains domaines se sont aussi retrouvés bloqués pour des questions scientifiques. C’est le cas de la mobilité autonome, pour laquelle les experts sont beaucoup plus pessimistes aujourd’hui qu’il y a seulement cinq ans – nous avions raison d’insister sur l’imprévisibilité des succès de l’IA. Pourtant le gouvernement a été actif sur plusieurs fronts. Les constructions administratives préconisées ont été faites, les instituts interdisciplinaires d’intelligence artificielle ont été créés, et plutôt bien lancés par le gouvernement français, le Comité d’éthique a été créé. Maintenant la frontière culturelle reste très prégnante et se révèlent de redoutables facteurs limitants : défiance de nos entrepreneurs et de nos investisseurs à l’égard des solutions françaises, débats publics chaotiques. La fuite des cerveaux n’a pas été enrayée, et les déficits de financement non plus. Les coopérations européennes patinent malgré une montée en compétences des administrations bruxelloises. Je ne pense pas que l’on puisse changer la donne sans un grand travail politique – politique, bien plus que technique – pour contrer à l’européenne le récit anglo-saxon dominant.

 

Les grands groupes disposent d’une avance considérable sur les États. La politique est-elle en retard dans son traitement de l’IA ?

Pour l’instant, les nations regardent les choses sans y pouvoir beaucoup. Même les États-Unis laissent les grands groupes comme Google ou Microsoft mener la stratégie. Une exception pour certains États autoritaires tels que la Chine, qui parvient à réglementer et à utiliser l’IA dans un projet politique de contrôle des citoyens, ou via des projets dystopiques, par exemple, en Arabie saoudite avec la cité Neom[1]. Mais ce sont des visions d’effroi plus que de progrès. Mis à part ces exemples, je ne dirais pas qu’il y a des gouvernements en première ligne sur le développement de l’IA. Et le classement des pays les plus avancés dans ce domaine n’a guère changé depuis 2018 !

 

Est-ce une chimère d’espérer la régulation éthique de l’IA, sans limiter ses progrès ?

Pas forcément. C’est quelque chose qui est sûrement à notre portée, intellectuelle et technique. Première bonne nouvelle : le travail sur l’éthique de l’IA a été fait, et plutôt bien fait, au niveau national et mondial, aussi bien dans le public que dans le privé, depuis 2018. Je veux dire que les règles et les bonnes pratiques ont été rendues explicites. Deuxième bonne nouvelle : les acteurs échaudés sont très attentifs à ces aspects. Voyez le luxe de précautions que prend OpenAI avec ChatGPT pour éviter les pièges dans lesquels est tombé le chatbot Tay, sacrifié après sa dérive raciste et fasciste, paix à son âme. Voyez aussi la diligence avec laquelle les grands groupes ont appris à censurer les contenus dangereux, quand ils le souhaitent – parfois même trop, et cela leur est reproché. Mais on comprend leur paranoïa… Lors de l’attentat raciste de Christchurch, en Nouvelle-Zélande, en 2021, les images de la tuerie ont été mises en ligne un bon million de fois le jour même, et toutes ces vidéos ont été retirées dans la foulée par l’action de filtres automatisés. Action, contre-action, la technologie utilisée pour contrer la technologie. Et pour autant, il y a toujours à l’action, la contre-action, car le téléversement des images a été déjoué. Pour prendre un autre exemple, analysé par Cathy O’Neil dans son best-seller Weapons of Mass Destruction[2], les horaires déments programmés par IA pour des travailleuses précaires ne sont pas une fatalité, pour peu qu’on règle avec éthique les paramètres. En fait, tout cela est une question, d’une part, de débat public et de volonté de société, d’autre part, de ressources humaines compétentes à même d’appliquer les règles. Problème humain, bien plus que problème technique.

 

 

L’impact sur le travail et l’emploi nourrit les plus grandes inquiétudes. Comment pourriez-vous rassurer nos lecteurs ?

Ni les nombreuses études contradictoires et alarmantes, ni les statistiques ne déjoueront les peurs. Et un rapport qui irait dans le sens contraire ne calmerait personne non plus. Ce qui permettrait plus sûrement aux décideurs d’appréhender ce futur et aux citoyens de deviner à quelle sauce ils seront mangés, ce seraient des expériences réalisées, grandeur nature, près de chez eux, dans lesquelles ils verraient, en pratique, l’intelligence artificielle se mettant au service du projet d’entreprise. On peut se poser des centaines de questions, la réponse tient dans le contrat moral que l’on noue entre humains. Avec l’intelligence artificielle, la confiance (ou conscience) précède la technique. Et pas le contraire.

 

L’éthique était très importante dans votre rapport : la technologie donne aux machines de gigantesques pouvoirs. Vous le dites, les nations sont impuissantes. Voyez-vous la possibilité de créer une vraie législation internationale qui tienne compte des progrès permis par l’IA ?

La réponse est oui. Le travail sur l’éthique a considérablement évolué depuis l’époque de mon rapport. Les règlements européens – RGPD, DMA, DSA – vont dans la bonne direction. Mais une loi sans évaluation ni action est impuissante. Dans le pire cas, on entrave les bonnes volontés sans pour autant encadrer les projets dangereux. Pour que ce soit effectif, il doit y avoir des compétences techniques au sein de la société, des capacités d’analyse, de détection et de répression. Et de correction de tir aussi. Sans cela, la loi reste un vœu pieux. Pour faire évoluer la société, le défi, c’est la conscience du bien commun et le capital humain avec sa diversité de talents. Nos questions sont bien trop souvent orientées sur la technique – la responsabilité juridique des algorithmes, l’encadrement des technologies – et pas assez sur le capital humain (former, recruter, attirer). En cette année 2023 où je suis très impliqué dans les célébrations du 400e anniversaire de Blaise Pascal – grand scientifique et philosophe, mais aussi premier entrepreneur de la « tech » ! –, tous les thèmes pascaliens, comme les liens entre l’esprit et le corps (la machine !), le primat des émotions sur la raison…, tous ces thèmes sont plus d’actualité que jamais dans notre époque de grands doutes face aux progrès technologiques.

 

[1] Neom est un projet de ville nouvelle futuriste, dans le nord-ouest de l’Arabie, s’étendant sur 30 km2. Un système complet d’e-gouvernement y assurera la vie administrative et sociale. Les résidents disposeront de valets robotisés, de taxis drones volants, de plages et d’une lune artificielle. Un système de reconnaissance faciale couvrira tout le territoire.

[2] Algorithmes : La Bombe à retardement, Les Arènes Éditions, 2018.