On met beaucoup de choses derrière le mot « intelligence » (apanage de l’être humain) : aurait-on mieux fait de nommer l’intelligence « artificielle » autrement, pour éviter de créer une confrontation homme-machine ?
Cette querelle de mots n’a de sens que si on a d’abord bien compris qu’on parle de trois sortes d’IA. Il y a d’abord l’IA qu’on dit « faible » et étroite, parce que, bien qu’elle soit d’une puissance extraordinaire, elle ne pense pas et ne sait faire qu’une seule chose : elle calcule, ce qui n’est pas la même chose. Elle résout des problèmes incroyablement complexes, en quoi on peut la dire, en ce sens, intelligente, mais en précisant bien qu’elle ne dispose pas de la conscience de soi, qu’elle ne comprend rien à ce qu’elle dit ou fait et qu’elle se contente pour l’essentiel de répondre à des questions à l’aide d’algorithmes qui permettent de traiter d’énormes masses de données (le fameux big data). Depuis la victoire de l’ordinateur Deep Blue sur le champion du monde d’échecs, Gary Kasparov, en l997, l’IA faible a réussi en 2016 à battre le champion du monde de jeu de go, et ses applications s’étendent désormais à tous les domaines ou presque, à la médecine, au droit, à l’économie, à la comptabilité, à l’aéronautique, à l’architecture, au bâtiment, à la finance, bref, à tous les métiers ou peu s’en faut. L’IA faible séquence le génome et commence à faire des merveilles dans le domaine de la traduction automatique, elle gère des pans entiers de l’économie collaborative, une économie qui se caractérise par le fait que l’intelligence artificielle permet à des non-professionnels de concurrencer les professionnels de la profession. Elle aura des retombées majeures dans le domaine de la défense, l’organisation du trafic routier ou aérien, la surveillance à domicile des personnes très dépendantes, la lutte contre la criminalité et le terrorisme, l’organisation des secours humanitaires, et dans mille autres secteurs encore. Le deuxième visage de l’IA est celui de la « super IA », qui reste encore une IA faible, mais qui serait large, contextualisante et transversale, de sorte qu’elle devienne, selon la définition que Nick Bostrom en donne, « supérieure à l’être humain, non pas dans un seul domaine comme les échecs, le jeu de go ou le séquençage du génome, mais dans tous les domaines ». Le troisième visage de l’IA, serait (je mets au conditionnel car il s’agit d’une utopie) celui d’une IA forte, une intelligence dotée, comme la nôtre, de conscience de soi, de libre arbitre et d’émotions, mais incarnée (si l’on peut dire) sur une base non biologique. Alors, nous aurions créé une post-humanité dont nous deviendrions dans le meilleur des cas, comme l’a dit Elon Musk, les animaux domestiques. Pour aller à l’essentiel, on pourrait dire que l’IA forte serait l’intelligence d’une machine capable, non pas seulement de calculer ou de mimer de l’extérieur l’intelligence humaine, mais qui serait bel et bien dotée des trois éléments jusqu’à présent exclusivement humains : la conscience de soi, la faculté de prendre des décisions et celle de ressentir des émotions (l’amour et la haine, la peur, la souffrance et le plaisir, la jalousie, etc.).
L’IA fascine ou fait peur. Pourquoi suscite-t-elle autant de passions ?
Si nous parvenions à créer une IA forte, cette IA du troisième type, alors c’en serait en effet fini de l’humanité, nous serions dépassés et remplacés par une post-humanité. Cela dit, autant je pense que la deuxième IA est déjà là, incroyablement efficace, comme on le voit par exemple avec ChatGPT, autant l’IA forte est une utopie, un pur fantasme. Comme l’écrit Aurélie Jean, l’une des meilleures spécialistes des algorithmes, dans son livre De l’autre côté de la machine [Éditions de l’Observatoire, 2019], l’idée relève de la science-fiction, pas de la science, ce qui n’empêche pas cette notion de fixer à la recherche une espèce de point de fuite ou, pour parler comme Kant, « d’idéal régulateur », car, dit-elle : « C’est en visant ce “point de singularité” que nous autres scientifiques pouvons avancer à pas de géants dans notre compréhension du monde… Même si je suis consciente qu’un robot ne pourra jamais ressentir une émotion, viser ce point de singularité aide les scientifiques à avancer dans la recherche pour simuler au mieux une émotion. » Belle leçon, qui, depuis la déconstruction kantienne de la métaphysique et l’épistémologie de Karl Popper, avait déjà été comprise par la philosophie critique, mais que nos scientistes matérialistes d’aujourd’hui ont tendance à oublier, animés qu’ils sont à tort par la conviction que nous ne sommes nous-mêmes rien d’autre que des machines.
En France, l’IA intègre de plus en plus l’entreprise, particulièrement dans le domaine des ressources humaines. On parle déjà de robots qui, demain, pourraient analyser les comportements, décrypter l’humeur des collaborateurs… Où seront les limites ? Et, d’ailleurs, veut-on en poser ?
Cessons de fantasmer, une machine reste une machine, c’est à nous, les humains, de l’utiliser. Grâce à l’IA – qui permet de séquencer en un rien de temps le génome d’une cellule cancéreuse – on guérit, au moyen d’immunothérapies et de thérapies ciblées, des cancers qui étaient mortels il y a cinq ans encore. Qui s’en plaindra ? Le problème, ce n’est pas la technologie mais l’humanité. La Première Guerre mondiale a fait 20 millions de morts, la seconde 60 millions, et la Révolution culturelle chinoise autant, le tout sans IA ni technologies d’aujourd’hui. À nous de garder nos valeurs… et les pieds sur terre.
Les « pro-IA » considèrent que cette intelligence est une opportunité pour « dérobotiser » le travail humain. Quand la machine gérera des tâches laborieuses, on pourra se concentrer sur les relations humaines, justement. Y croyez-vous ?
Il n’y a pas de pro- et anti-IA, ça n’a aucun sens. Elle est là, et rien n’arrêtera son développement. Être pour au contre serait comme être pour ou contre le réel. La question est de savoir ce qu’on en fait. Et oui, je ne crois pas à la thèse de la fin du travail, développée notamment par Jeremy Rifkin. Elle repose, comme je l’ai montré dans un livre coécrit avec mon ami Nicolas Bouzou, sur une incompréhension totale de la logique de l’économie capitaliste. Comme Joseph Schumpeter l’a montré, les progrès technologiques créent des emplois, et, du reste, les pays les mieux équipés en robotique et en IA sont en général ceux où le chômage est le plus faible. Eh oui, si on peut libérer les humains de tâches fatigantes et dénuées de sens, tant mieux.
GPT fait beaucoup parler. Vous-même, vous avez écrit que ce logiciel bouleversera l’enseignement. Comment ne pas penser à un scénario catastrophe ?
Je n’ai pas d’inquiétude majeure concernant GPT pourvu que nous soyons capables d’en faire bon usage. Certains, comme à Science Po, veulent interdire GPT aux élèves. Je pense que toute interdiction est non seulement impossible (tout étudiant peut avoir le logiciel dans son smartphone, donc dans sa poche), mais surtout assez absurde. Plutôt que d’interdire ce qui ne peut pas l’être, il va falloir adapter la pédagogie et les épreuves d’examen, en demandant par exemple aux étudiants de poser leurs questions à GPT, de citer ses réponses et, à partir de là, de les discuter, d’en faire la critique et de les compléter.
Le philosophe Gaspard Koenig craint la fin de l’individu, du libre arbitre, de l’autonomie. Se met-on volontairement en position de soumission face aux machines ?
C’est une posture médiatiquement payante, typique des réactions d’un monde intellectuel qui a compris que le pessimisme et l’esprit de critique vous donnaient toujours un air de supériorité sur le commun des mortels. Pourtant l’argument est faible, à vrai dire aussi sophistique que fallacieux. Il est emprunté à Yuval Noah Harari, dont le livre, Homo deus a connu un vif succès, qui écrit ceci : « Le libéralisme s’effondrera le jour où le système me connaîtra mieux que moi. L’IA décidera alors pour moi de ma santé, de mon vote, voire de mon mariage mieux que je ne le ferais moi-même. Par intérêt bien compris, je renoncerai alors à l’exercice de ma liberté. » Selon Gaspard Koenig, l’un de ses épigones français, « la possibilité du choix moral est gravement remise en cause par l’usage industriel de l’IA et des data qui nous ôtent la peine de décider par nous-mêmes ». Ainsi, par exemple, le médecin assisté par un logiciel de diagnostic serait peu à peu contraint de suivre les avis d’une machine qui engrange des data et des algorithmes infiniment supérieurs à ceux dont peut disposer son malheureux cerveau, ce qui anéantirait sa liberté. À y regarder d’un peu plus près, j’espère qu’on comprendra que cette argumentation, pour frappante qu’elle soit, est purement sophistique. Car de deux choses l’une : ou bien la machine a éclairé utilement le médecin, et c’est une aide précieuse qui lui permettra de mieux servir son patient, mais aussi de se concentrer sur ce que son métier a de spécifique et que la machine ne sait pas faire, le conseil et la relation humaine avec le malade dans l’élaboration d’une stratégie thérapeutique ; ou bien il estime que la machine se trompe, et je ne vois rien qui l’empêche de le dire au patient, d’en discuter avec lui de manière argumentée afin de le laisser choisir entre lui et le logiciel. En voyant dans l’IA et les data d’abominables nudges, des « coups de pouce » qui peu à peu rognent notre liberté, Koenig et Harari, confondent en permanence ce que Sartre distinguait fort à juste titre, à savoir une « situation » et une « détermination ». Nous sommes toujours, cela va de soi, « en situation ». Je suis né homme ou femme, prolétaire ou bourgeois, dans tel milieu social, telle nation, à telle époque, dans telle culture et telle langue, avec tel patrimoine génétique, etc. Mais ce n’est pas parce qu’on est né femme qu’on est obligé de vivre rivée aux fourneaux et à l’éducation des enfants. Ce n’est pas parce qu’on vient au monde prolétaire qu’on sera forcément communiste, et ce n’est pas parce que l’IA de Google dit à Angelina Jolie, avec plus de fiabilité qu’un médecin humain, que son risque de développer un cancer est de 87 %, qu’elle « perd son autonomie » en suivant son conseil, comme l’écrit de manière hâtive et mal argumentée Yuval Harari. Dans tous ces cas de figure, nous avons affaire à des situations, non à des déterminations fatales qui viendraient anéantir notre libre arbitre. C’est même tout l’inverse, car c’est justement par rapport à des situations qui peuvent sembler a priori contraignantes qu’il trouve au mieux à s’exercer. Non seulement l’IA ne va pas détruire notre liberté, mais elle peut, si nous savons l’utiliser intelligemment, rendre d’immenses services à l’humanité.
ENCADRÉ
Pourquoi l’intelligence humaine est-elle battue par l’IA ?
« L’IA est déjà bien supérieure à notre intelligence dans des jeux comme les échecs, le poker, le bridge ou le jeu de go, mais, plus sérieusement, dans la comptabilité, la radiologie, le séquençage du génome d’une cellule cancéreuse, l’organisation des transports, des chaînes de logistiques, la régulation du trafic aérien, et mille autres secteurs encore… Simplement, elle ne pense pas ce qu’elle fait ou dit, ce n’est pas de l’IA forte, ce qui ne l’empêche pas de résoudre quantité de problèmes infiniment mieux et plus vite que nous. »