Pourquoi l’intelligence humaine est-elle battue par l’IA ?

On met beaucoup de choses derrière le mot « intelligence » (apanage de l’être humain) : aurait-on mieux fait de nommer l’intelligence « artificielle » autrement, pour éviter de créer une confrontation homme-machine ?

Cette querelle de mots n’a de sens que si on a d’abord bien compris qu’on parle de trois sortes d’IA. Il y a d’abord l’IA qu’on dit « faible » et étroite, parce que, bien qu’elle soit d’une puissance extraordinaire, elle ne pense pas et ne sait faire qu’une seule chose : elle calcule, ce qui n’est pas la même chose. Elle résout des problèmes incroyablement complexes, en quoi on peut la dire, en ce sens, intelligente, mais en précisant bien qu’elle ne dispose pas de la conscience de soi, qu’elle ne comprend rien à ce qu’elle dit ou fait et qu’elle se contente pour l’essentiel de répondre à des questions à l’aide d’algorithmes qui permettent de traiter d’énormes masses de données (le fameux big data). Depuis la victoire de l’ordinateur Deep Blue sur le champion du monde d’échecs, Gary Kasparov, en l997, l’IA faible a réussi en 2016 à battre le champion du monde de jeu de go, et ses applications s’étendent désormais à tous les domaines ou presque, à la médecine, au droit, à l’économie, à la comptabilité, à l’aéronautique, à l’architecture, au bâtiment, à la finance, bref, à tous les métiers ou peu s’en faut. L’IA faible séquence le génome et commence à faire des merveilles dans le domaine de la traduction automatique, elle gère des pans entiers de l’économie collaborative, une économie qui se caractérise par le fait que l’intelligence artificielle permet à des non-professionnels de concurrencer les professionnels de la profession. Elle aura des retombées majeures dans le domaine de la défense, l’organisation du trafic routier ou aérien, la surveillance à domicile des personnes très dépendantes, la lutte contre la criminalité et le terrorisme, l’organisation des secours humanitaires, et dans mille autres secteurs encore. Le deuxième visage de l’IA est celui de la « super IA », qui reste encore une IA faible, mais qui serait large, contextualisante et transversale, de sorte qu’elle devienne, selon la définition que Nick Bostrom en donne, « supérieure à l’être humain, non pas dans un seul domaine comme les échecs, le jeu de go ou le séquençage du génome, mais dans tous les domaines ». Le troisième visage de l’IA, serait (je mets au conditionnel car il s’agit d’une utopie) celui d’une IA forte, une intelligence dotée, comme la nôtre, de conscience de soi, de libre arbitre et d’émotions, mais incarnée (si l’on peut dire) sur une base non biologique. Alors, nous aurions créé une post-humanité dont nous deviendrions dans le meilleur des cas, comme l’a dit Elon Musk, les animaux domestiques. Pour aller à l’essentiel, on pourrait dire que l’IA forte serait l’intelligence d’une machine capable, non pas seulement de calculer ou de mimer de l’extérieur l’intelligence humaine, mais qui serait bel et bien dotée des trois éléments jusqu’à présent exclusivement humains : la conscience de soi, la faculté de prendre des décisions et celle de ressentir des émotions (l’amour et la haine, la peur, la souffrance et le plaisir, la jalousie, etc.).

 

 

L’IA fascine ou fait peur. Pourquoi suscite-t-elle autant de passions ?

Si nous parvenions à créer une IA forte, cette IA du troisième type, alors c’en serait en effet fini de l’humanité, nous serions dépassés et remplacés par une post-humanité. Cela dit, autant je pense que la deuxième IA est déjà là, incroyablement efficace, comme on le voit par exemple avec ChatGPT, autant l’IA forte est une utopie, un pur fantasme. Comme l’écrit Aurélie Jean, l’une des meilleures spécialistes des algorithmes, dans son livre De l’autre côté de la machine [Éditions de l’Observatoire, 2019], l’idée relève de la science-fiction, pas de la science, ce qui n’empêche pas cette notion de fixer à la recherche une espèce de point de fuite ou, pour parler comme Kant, « d’idéal régulateur », car, dit-elle : « C’est en visant ce “point de singularité” que nous autres scientifiques pouvons avancer à pas de géants dans notre compréhension du monde… Même si je suis consciente qu’un robot ne pourra jamais ressentir une émotion, viser ce point de singularité aide les scientifiques à avancer dans la recherche pour simuler au mieux une émotion. » Belle leçon, qui, depuis la déconstruction kantienne de la métaphysique et l’épistémologie de Karl Popper, avait déjà été comprise par la philosophie critique, mais que nos scientistes matérialistes d’aujourd’hui ont tendance à oublier, animés qu’ils sont à tort par la conviction que nous ne sommes nous-mêmes rien d’autre que des machines.

 

 

En France, l’IA intègre de plus en plus l’entreprise, particulièrement dans le domaine des ressources humaines. On parle déjà de robots qui, demain, pourraient analyser les comportements, décrypter l’humeur des collaborateurs… Où seront les limites ? Et, d’ailleurs, veut-on en poser ?

Cessons de fantasmer, une machine reste une machine, c’est à nous, les humains, de l’utiliser. Grâce à l’IA – qui permet de séquencer en un rien de temps le génome d’une cellule cancéreuse – on guérit, au moyen d’immunothérapies et de thérapies ciblées, des cancers qui étaient mortels il y a cinq ans encore. Qui s’en plaindra ? Le problème, ce n’est pas la technologie mais l’humanité. La Première Guerre mondiale a fait 20 millions de morts, la seconde 60 millions, et la Révolution culturelle chinoise autant, le tout sans IA ni technologies d’aujourd’hui. À nous de garder nos valeurs… et les pieds sur terre.

 

 

Les « pro-IA » considèrent que cette intelligence est une opportunité pour « dérobotiser » le travail humain. Quand la machine gérera des tâches laborieuses, on pourra se concentrer sur les relations humaines, justement. Y croyez-vous ?

Il n’y a pas de pro- et anti-IA, ça n’a aucun sens. Elle est là, et rien n’arrêtera son développement. Être pour au contre serait comme être pour ou contre le réel. La question est de savoir ce qu’on en fait. Et oui, je ne crois pas à la thèse de la fin du travail, développée notamment par Jeremy Rifkin. Elle repose, comme je l’ai montré dans un livre coécrit avec mon ami Nicolas Bouzou, sur une incompréhension totale de la logique de l’économie capitaliste. Comme Joseph Schumpeter l’a montré, les progrès technologiques créent des emplois, et, du reste, les pays les mieux équipés en robotique et en IA sont en général ceux où le chômage est le plus faible. Eh oui, si on peut libérer les humains de tâches fatigantes et dénuées de sens, tant mieux.

 

 

GPT fait beaucoup parler. Vous-même, vous avez écrit que ce logiciel bouleversera l’enseignement. Comment ne pas penser à un scénario catastrophe ?

Je n’ai pas d’inquiétude majeure concernant GPT pourvu que nous soyons capables d’en faire bon usage. Certains, comme à Science Po, veulent interdire GPT aux élèves. Je pense que toute interdiction est non seulement impossible (tout étudiant peut avoir le logiciel dans son smartphone, donc dans sa poche), mais surtout assez absurde. Plutôt que d’interdire ce qui ne peut pas l’être, il va falloir adapter la pédagogie et les épreuves d’examen, en demandant par exemple aux étudiants de poser leurs questions à GPT, de citer ses réponses et, à partir de là, de les discuter, d’en faire la critique et de les compléter.

 

 

Le philosophe Gaspard Koenig craint la fin de l’individu, du libre arbitre, de l’autonomie. Se met-on volontairement en position de soumission face aux machines ?

C’est une posture médiatiquement payante, typique des réactions d’un monde intellectuel qui a compris que le pessimisme et l’esprit de critique vous donnaient toujours un air de supériorité sur le commun des mortels. Pourtant l’argument est faible, à vrai dire aussi sophistique que fallacieux. Il est emprunté à Yuval Noah Harari, dont le livre, Homo deus a connu un vif succès, qui écrit ceci : « Le libéralisme s’effondrera le jour où le système me connaîtra mieux que moi. L’IA décidera alors pour moi de ma santé, de mon vote, voire de mon mariage mieux que je ne le ferais moi-même. Par intérêt bien compris, je renoncerai alors à l’exercice de ma liberté. » Selon Gaspard Koenig, l’un de ses épigones français, « la possibilité du choix moral est gravement remise en cause par l’usage industriel de l’IA et des data qui nous ôtent la peine de décider par nous-mêmes ». Ainsi, par exemple, le médecin assisté par un logiciel de diagnostic serait peu à peu contraint de suivre les avis d’une machine qui engrange des data et des algorithmes infiniment supérieurs à ceux dont peut disposer son malheureux cerveau, ce qui anéantirait sa liberté. À y regarder d’un peu plus près, j’espère qu’on comprendra que cette argumentation, pour frappante qu’elle soit, est purement sophistique. Car de deux choses l’une : ou bien la machine a éclairé utilement le médecin, et c’est une aide précieuse qui lui permettra de mieux servir son patient, mais aussi de se concentrer sur ce que son métier a de spécifique et que la machine ne sait pas faire, le conseil et la relation humaine avec le malade dans l’élaboration d’une stratégie thérapeutique ; ou bien il estime que la machine se trompe, et je ne vois rien qui l’empêche de le dire au patient, d’en discuter avec lui de manière argumentée afin de le laisser choisir entre lui et le logiciel. En voyant dans l’IA et les data d’abominables nudges, des « coups de pouce » qui peu à peu rognent notre liberté, Koenig et Harari, confondent en permanence ce que Sartre distinguait fort à juste titre, à savoir une « situation » et une « détermination ». Nous sommes toujours, cela va de soi, « en situation ». Je suis né homme ou femme, prolétaire ou bourgeois, dans tel milieu social, telle nation, à telle époque, dans telle culture et telle langue, avec tel patrimoine génétique, etc. Mais ce n’est pas parce qu’on est né femme qu’on est obligé de vivre rivée aux fourneaux et à l’éducation des enfants. Ce n’est pas parce qu’on vient au monde prolétaire qu’on sera forcément communiste, et ce n’est pas parce que l’IA de Google dit à Angelina Jolie, avec plus de fiabilité qu’un médecin humain, que son risque de développer un cancer est de 87 %, qu’elle « perd son autonomie » en suivant son conseil, comme l’écrit de manière hâtive et mal argumentée Yuval Harari. Dans tous ces cas de figure, nous avons affaire à des situations, non à des déterminations fatales qui viendraient anéantir notre libre arbitre. C’est même tout l’inverse, car c’est justement par rapport à des situations qui peuvent sembler a priori contraignantes qu’il trouve au mieux à s’exercer. Non seulement l’IA ne va pas détruire notre liberté, mais elle peut, si nous savons l’utiliser intelligemment, rendre d’immenses services à l’humanité.

 

 

ENCADRÉ

Pourquoi l’intelligence humaine est-elle battue par l’IA ?

« L’IA est déjà bien supérieure à notre intelligence dans des jeux comme les échecs, le poker, le bridge ou le jeu de go, mais, plus sérieusement, dans la comptabilité, la radiologie, le séquençage du génome d’une cellule cancéreuse, l’organisation des transports, des chaînes de logistiques, la régulation du trafic aérien, et mille autres secteurs encore… Simplement, elle ne pense pas ce qu’elle fait ou dit, ce n’est pas de l’IA forte, ce qui ne l’empêche pas de résoudre quantité de problèmes infiniment mieux et plus vite que nous. »

Allier IA et éthique, mission impossible ?

 

« Nous nous sommes rendu compte que les entreprises avaient aujourd’hui besoin d’accompagnement et de solutions pour progresser et rendre visible la mise en œuvre d’une IA responsable au sein de leur organisation », déclare Lætitia Orsini Sharps, directrice grand public d’Orange France et présidente de Positive AI, une association créée en 2022 par Orange France, L’Oréal, Malakoff Humanis et BCG Gamma. « L’IA responsable, c’est pour le bénéfice de l’humain et c’est contrôlé par l’humain », poursuit-elle. Il est extrêmement important que les entreprises soient capables de montrer que ce progrès technologique est bien au service de la société. »

L’une des principales missions de Positive AI est « d’offrir aux entreprises un espace d’échange, de dialogue et de partage sur les bonnes pratiques pour réfléchir ensemble aux interrogations qui sont essentielles et faire progresser ce sujet d’une IA éthique et responsable », précise sa présidente. Lætitia Orsini Sharps lance aussi un appel aux dirigeants pour qu’ils s’intéressent à ces problématiques, qui ne devraient pas, selon elle, concerner les seuls data scientists : « Ce sont des sujets dont les dirigeants doivent s’emparer. Ils doivent comprendre tout le potentiel de cette IA, et en même temps toutes les règles et la gouvernance qu’il faut mettre en place pour que ces outils restent pilotés par l’humain et soient au service de l’humain. Des positions doivent être prises et elles doivent être très fortes. »

 

Un label certifiant la gouvernance et les systèmes d’une IA éthique

Pour apporter des solutions concrètes permettant aux organisations de rendre opérationnelles ces bonnes pratiques, Positive AI est en train de finaliser la mise en place du premier label d’IA éthique en France. « Ce label permettra aux entreprises de vérifier leur niveau de maturité sur l’IA responsable », explique la dirigeante. À travers un référentiel établi par les équipes de data scientists et de chefs de projet des quatre entreprises fondatrices de l’association, et suivant les principales recommandations émises par la Commission européenne, ce label sera construit autour de deux piliers : la gouvernance de l’organisation et les systèmes d’IA eux-mêmes.

Une partie de ces systèmes, « ceux qui seront identifiés comme présentant le plus de risques », seront examinés en profondeur par les auditeurs. Les organisations devront aussi fournir des éléments prouvant leurs bonnes pratiques en matière de contrôle par l’humain de ces systèmes, par exemple, la protection de certaines populations. « En auditant aussi la gouvernance, on peut revenir sur ce qui a été audité. Cela va garantir qu’au sein de l’entreprise on ait un système global vertueux. »

La note finale donnant droit à la labellisation Positive AI, valable deux ans, permettra à l’organisation de savoir auquel des trois niveaux prévus par le référentiel correspond la maturité de son IA. Ce point est très important, selon la présidente, puisque le label doit être « accessible à l’ensemble des entreprises » : « On est vraiment dans une logique de progression et d’apprentissage en commun. » Les organisations fondatrices de l’association seront les premières à passer l’épreuve de la certification, et le label sera ensuite ouvert aux entreprises extérieures dans le courant du deuxième trimestre 2023.

 

Mobiliser en interne et contribuer au débat public

Ainsi, les organisations de toute taille et de tout secteur pourront adhérer à Positive AI et candidater au label. « On a posé ce socle, mais il est au service de l’ensemble des entreprises, donc, plus nous serons nombreux, plus ce sera riche. C’est l’abondance de regards croisés, d’approches différentes, avec diverses modalités de mise en œuvre, qui fera la richesse de la démarche », indique Lætitia Orsini Sharps. En interne, une IA responsable est également importante « pour attirer et retenir les collaborateurs, poursuit-elle. Les data experts cherchent du sens dans ce qu’ils font, dans leur parcours professionnel, et veulent s’impliquer dans des organisations qui partagent leurs préoccupations en matière d’éthique ».

Une autre ambition de Positive AI est de participer activement aux discussions sur la constitution de normes, tant au niveau français qu’à l’échelle européenne : « Notre objectif est aussi de contribuer au débat public sur la régulation et les perspectives de l’IA, en se rapprochant d’acteurs publics et privés, en France et à l’étranger, pour mettre en commun cette approche. Cela nous semble important d’avoir une vision européenne de cette IA responsable. Nous contribuerons au débat en soutenant la position concrète et pragmatique d’entreprises qui font l’IA et qui l’utilisent. »

IA : que dit la loi en 2023 ?

Les récentes avancées en matière d’intelligence artificielle (IA) représentent « une grave menace pour les droits humains » (alerte du 18 février par le Haut-Commissaire des Nations unies aux droits de l’Homme). L’inquiétude de l’ONT est-elle justifiée ?

L’inquiétude est élevée car la réglementation n’est pas encore claire en termes de classification des risques et de mise en œuvre et la surveillance par les autorités compétentes. La menace que l’on vit est celle du changement de valeurs de l’humanité, par des décisions qui sont de plus en plus automatisées. L’IA, à terme, peut ébranler notre sécurité, voire, notre santé mentale, notre façon de vivre. Les relations interpersonnelles sont également touchées, j’en veux pour preuve, le succès de certains algorithmes de recommandations, employés sur les réseaux sociaux. Cela nous donne une idée précise : de ce que certaines décisions indicible, impalpable, immatérielle, peuvent avoir comme conséquence.   En outre, l’UE ne peut ignorer les risques incertains, ceux auxquels les générations futures seront confrontées. Nous avons besoin d’une bonne gouvernance pour résoudre ce problème, et je ne suis pas sûr que la proposition actuelle de loi sur l’IA y réponde. Au niveau de l’entreprise, les travailleurs devraient également disposer de cette capacite critique.

 

IA : Beaucoup de collaborateurs se disent préoccupés. De quels outils dispose-t-on pour protéger leurs données personnelles ? 

La loi sur la vie privée qui existe depuis longtemps, et récemment mis à jour au niveau de l’UE. Il s’agit du RGPD . C’est un aspect fondamental du droit humain., qui a une connotation d’extra-territorialité. D’autres pays ont importé les dispositions  de la RGPD dans leurs juridictions telles que l’Australie, le Canada, le Chili, ou bien le Japon. Un autre outil consiste à sensibiliser chaque individu à la protection de ses propres données personnelles et à sa capacité à s’interroger de manière critique sur l’opportunité de fournir ses données personnelles aux nombreuses entreprises qui les collectent pour leur propre profit.

 

 

Quelles propositions pourraient-être faites pour que l’Europe assume une position de leader numérique en garantissant les droits fondamentaux des salariés ?

L’Europe est un leader numérique au niveau de la gouvernance. C’est la première juridiction  à avoir fait passé des lois sur des systèmes d’IA, c’est très pertinent en termes de positionnement géopolitique . Au niveau technique, l’Europe n’est pas séduisante comme l’Asie ou l’Inde ou bien les les États-Unis. Elle veut faire une sorte de contre-poids, mais l’UE ne peut se contenter de proposer de nombreuses directives et règlements, le véritable pouvoir résidera dans leur mise en œuvre effective. La proposition législative actuelle sur la prise de décision et la surveillance algorithmique ne s’appliquera qu’aux travailleurs des plateformes. Les législateurs ont la responsabilité d’étendre ces dispositions à tous les travailleurs afin qu’ils bénéficient d’une prévention et d’une protection réelles sur leur lieu de travail.  Je pense qu’un nouveau cadre juridique dans le contexte de l’emploi est nécessaire. Les travailleurs ne devraient pas avoir des droits « théoriques », mais des droits qu’ils peuvent effectivement exercer à l’ère de l’IA.La Course à l’IA est économique.

Témoignage : comment j’utilise ChatGPT pour optimiser mon recrutement

 

 

Alors comment un service recrutement peut-il utiliser ChatGPT ?

L’idée est de tirer parti cette révolution sans trop bouleverser les processus.

La première application consiste à générer des descriptifs de postes attractifs pour les offres d’emploi ou des fiches de postes internes. Il faut tout d’abord fournir à ChatGPT les informations clés sur les postes en question, telles que le contexte, les missions, les exigences ou les compétences requises… Ensuite, demandez à ChatGPT de rédiger votre texte en utilisant ces informations. Vous pouvez aussi lui demander d’adopter un ton spécifique, humoristique par exemple.

 

Un autre usage est d’automatiser la réponse aux questions fréquentes des candidats lors du processus de recrutement.

Pour cela, il nous faut tout d’abord identifier les questions fréquentes des candidats, telles que les informations sur les missions, les horaires de travail, les avantages sociaux… Puis brancher un chat conversationnel tel que ChatGPT sur notre ATS (Applicant Tracking System, ou système de suivi des candidatures) afin d’automatiser les réponses.

 

Vous pouvez aussi employer ChatGPT pour évaluer les compétences linguistiques ou techniques des candidats. Demandez-lui de rédiger un QCM[1] et proposez aux candidats d’y répondre. Ainsi, vous obtenez des résultats fiables et cohérents qui vous permettront d’améliorer la présélection, d’économiser du temps et de mieux préparer vos entretiens physiques. Les champs d’application sont nombreux : langues étrangères, langages de programmation, connaissances techniques…

 

Poussons cette dernière pratique : vous pouvez aussi utiliser ChatGPT pour analyser les réponses des candidats aux questions posées préalablement afin de déterminer leur adéquation au poste. Ainsi, vous optimisez vos décisions de recrutement grâce à une évaluation objective et précise de la pertinence des candidats. Cela vous permet également d’économiser du temps et de standardiser vos processus pour une évaluation plus cohérente.

 

À l’aide de ChatGPT, vous pouvez aussi travailler votre marque employeur, en rédigeant du contenu qualitatif en un rien de temps, pour votre site carrières ou vos réseaux sociaux. Demandez-lui aussi de revoir votre communication écrite avec les candidats afin de fluidifier, de professionnaliser et d’améliorer l’expérience candidat.

 

Pour être franc avec vous, cette révolution me fascine autant qu’elle me fait peur, mais elle est bien réelle. Je pense qu’en tant que recruteurs nous devons nous adapter et intégrer cette nouvelle technologie à nos processus de recrutement, car les avantages sont nombreux. Je préciserai que cette intelligence artificielle doit rester au service de l’humain et non l’inverse.

 

 

 

[1] Questionnaire à choix multiples.

BCG X : les enjeux de la transfo digitale

Pour Camille Brégé, l’équilibre entre l’angle tech et l’angle business se révèle essentiel pour la réussite d’une transformation digitale : « Le plus difficile, quand on crée un actif digital, ce n’est pas la partie technique, mais la partie business process qui va avec, et qui comprend par exemple l’acculturation des collaborateurs. La question de l’accompagnement est donc centrale. La règle d’or en la matière est 10/20/70 : 10 % des efforts résident dans la construction de l’algorithme, 20 % dans son implémentation dans les systèmes d’information existants, et 70 % dans l’intégration dans les modes de travail des équipes au quotidien. Ces 70 % constituent la clé de la dimension humaine de l’IA et elle est la plus importante. Elle ne doit surtout pas être sous-estimée. C’est la raison pour laquelle nous travaillons avec nos clients sur les questions de gestion du changement et de la formation. »

 

Un modèle collaboratif pour impliquer l’ensemble des utilisateurs

BCG X travaille sur la base d’un modèle collaboratif, qui mobilise un grand nombre de parties prenantes, des membres de la direction aux collaborateurs en passant par les équipes techniques et les managers. « Il faut que les interlocuteurs business, les représentants du comité exécutif et les utilisateurs soient impliqués. Sinon on risque de construire quelque chose hors-sol », explique Camille Brégé. Le soutien des équipes dirigeantes est aussi essentiel : « Sans support affirmé de la part de la direction, les transformations échouent. »

Convaincre les collaborateurs, parfois dubitatifs, de l’impact positif de l’IA fait également partie de l’accompagnement proposé par BCG X : « Nous pensons que l’IA apporte de la valeur si elle est combinée à l’humain. Il convient de composer avec des algorithmes, des intuitions business et de la stratégie. »

En plus d’apporter « une plus grande confiance dans les décisions prises parce qu’elles sont sous-tendues par des simulations et par de la donnée transparente », l’IA a pour atout, par son caractère transverse, d’améliorer l’expérience collaborateur : « La data et le digital aident à casser les silos, ce qui permet au collaborateur de prendre du recul et d’avoir une meilleure compréhension des enjeux auxquels l’entreprise est confrontée, et donc de se dire qu’il peut contribuer à les résoudre. Si on l’appréhende de la bonne manière, l’IA permet d’apporter plus de sens. »

RH : un terrain de jeu pour l’IA

Des fantasmes entourent l’intelligence artificielle. Le concept est très clivant : comment l’expliquez-vous ?

En fait, il faut se poser les bonnes questions : pourquoi l’IA se développe-t-elle aussi vite dans nos organisations ? L’une des raisons en est tout simplement qu’elle nous aide à dompter la complexité de notre environnement et qu’elle nous permet de nous adapter collectivement à un monde qui se transforme de plus en plus vite.

L’IA est à la croisée de multiples chemins : la reconnaissance de textes, de la voix, des visages, des émotions ; la capacité à extrapoler des données et d’en déduire des cheminements, d’être prédictifs sur certains domaines et, plus récemment encore de générer des textes, des images, des contenus. Forcément, quand on parle d’IA, il y a une myriade de possibles, et, forcément, dans l’imaginaire, cela ne se matérialise pas de la même façon. Dans ce domaine, chacun est tenté d’expérimenter des choses. La détection, par exemple dans les espaces publics, est l’un usage qui peut être assez effrayant et dont les dérives sont évidentes. Il est nécessaire cependant de distinguer la réalité du fantasme et, dans le domaine du réel, de porter toute notre attention sur ce qui est souhaitable, et pas seulement sur ce qui est possible. Entre les deux, il y a le cadre éthique, la réglementation et les limites managériales que l’on se fixe.

 

Ces limites restant floues, la « peur de perdre le contrôle » est donc bien légitime…

L’IA, déjà, c’est un algorithme ou un modèle mathématique conçu pour imiter la façon dont les humains pensent et résolvent des problèmes. Cet algorithme est entraîné sur la base de millions d’enregistrements de données pour produire les prédictions le plus précises possible. Plus on le « nourrit », plus on le « corrige », plus il apprend et devient conforme et précis. Donc ce n’est pas figé, c’est un produit qui, lui-même, est évolutif.

Il y a déjà une première inquiétude : qui va nourrir cet algorithme ? Ces données seront-elles le reflet de ce que l’on souhaite ou de ce que l’on a fait dans le passé ? Je vous donne un exemple concret : dans une entreprise où des cadres masculins étaient davantage recrutés que des femmes, si on alimente l’algorithme de l’IA avec ce type d’historique, celle-ci va considérer que le critère « être un homme » est plus favorable pour obtenir la position de manager. Le premier biais de l’IA est donc directement lié à l’historique des données. Deuxième réticence : une fois que cette IA s’est formée, elle produit des réponses, mais le raisonnement concernant celles-ci n’est pas analysable ni explicable. Cet effet black box a pendant très longtemps été l’un des freins majeurs, car la réponse était produite avec un taux de fiabilité, certes très bon, mais sans que l’on puisse dire pourquoi il l’était et selon quel critère. La troisième réticence est liée à l’impact que l’IA pourrait avoir sur notre travail, sur notre place d’être humain, sur notre collaboration possible dans un monde où elle travaillerait à nos côtés. C’est clairement la peur d’être cannibalisé par ce type de solutions, d’observer des dérives éthiques ou morales qui risqueraient de porter atteinte au socle de confiance que nous développons entre êtres humains.

Chez Oracle, nous avons réalisé une étude, avec Odoxa, pour discerner les usages acceptés ou non dans le domaine des RH. Nous avons détecté trois catégories d’usage de l’IA : dans le premier cas, ceux qui apportent une forme d’augmentation des capacités humaines sur les tâches répétitives et à faible valeur ajoutée. L’IA peut prendre en charge ces tâches qui nous semblent rébarbatives, et, dans ce cas, le taux d’acceptation est de l’ordre de 70 % des sondés. Le second domaine est celui du matching. Le matching, c’est quoi ? La mise en correspondance d’une offre avec une demande, avec un ratio d’adéquation plus ou moins élevé. Je viens avec une liste d’informations personnelles concernant mon profil, mes souhaits, et l’IA va me faire des suggestions de carrière ou de formation, par exemple. Dans notre étude, nous avons eu un retour mitigé sur ce type d’usage. Ce qui se joue, c’est le deal : est-ce que je suis prêt à me dévoiler davantage pour accéder plus rapidement à des suggestions qui me sembleraient pertinentes ? Nous ne sommes pas tous prêts à cela pour le moment. Troisième point : on laisse l’IA autonome, dans un certain périmètre, pour évaluer le niveau de performance d’un collaborateur ou pour prendre une décision RH importante. Et là, la majeure partie des personnes sondées expriment leur réticence et ne veulent pas être tributaires de l’IA dans un périmètre qui impacte directement les collaborateurs.

 

 

En quoi l’IA peut-elle permettre aux RH de se libérer de leurs tâches dites techniques pour se recentrer sur la dimension humaine du poste, voire pour réévaluer le périmètre RH ?

Nous évoluons dans un contexte où les candidats et les collaborateurs ne souhaitent plus seulement avoir un job, mais plutôt vivre une expérience professionnelle qui soit engageante, épanouissante, personnalisée.
De leur côté, les DRH n’ont jamais eu accès à autant d’informations personnelles, administratives, qualitatives liées à la performance, aux appétences, aux souhaits, à la rémunération des collaborateurs. Ces données sont malheureusement souvent disjointes et difficiles à réconcilier. L’enjeu est donc immense pour une direction RH qui, à effectifs constants, doit préserver l’équité, offrir cette flexibilité attendue par les collaborateurs, ou ce niveau de synthèse nécessaire aux managers pour prendre des décisions éclairées concernant leur équipe. On pourrait qualifier ce contexte de perfect storm pour l’IA. Si tant est qu’une organisation entreprenne les efforts suffisants pour normaliser ses référentiels de données RH, ce que l’on dénomme souvent le CoreHR (organisation, métiers, compétences, sites, hiérarchie, etc.), alors s’ouvre un champ immense d’usages de l’IA en soutien des RH, des managers et des employés. Les usages les plus évidents vont des suggestions de mise à jour des profils des collaborateurs à la détection de compétences, suggestions de formation ou de mentor. Du côté des managers, l’IA peut aider à accéder aux bonnes informations, consolidées lors d’étapes importantes, comme les promotions ou l’attribution d’augmentations salariales ou de bonus, afin de favoriser la rémunération de la performance, l’équité, l’inclusion, par exemple.

Du côté des RH, des usages comme l’automatisation ou l’accélération de la création des réponses aux demandes RH dans le centre de services partagés, l’accès à l’assistant digital pour consulter des compteurs de temps, de congés, ou la génération de reporting et des commentaires automatiques de ces reportings, ou encore l’analyse de textes (comme les raisons de départ des collaborateurs) sont autant d’outils qui améliorent la productivité et permettent de dégager du temps destiné à l’échange, à la stratégie et à la prise de décision.

 

 

Vous faites bien la différence entre « IA forte » et « IA faible »…

L’IA faible ne sait traiter que ce pour quoi elle a été conçue. L’IA forte est l’IA capable de s’adapter à des situations nouvelles, d’élaborer des solutions complexes. C’est l’IA telle que vous l’imaginez dans les films de science-fiction. C’est le fantasme absolu d’une machine qui se comporterait comme un être humain. L’IA forte n’en est qu’à ses balbutiements, notamment dans le domaine des jeux en ligne quand on affronte des « joueurs IA », mais aussi dans les robots ou les voitures autonomes, où de multiples sources d’information doivent être analysées dans des contextes renouvelés sans cesse. Ou encore dans des formes avancées de chat et de génération de texte, ChatGPT par exemple. Même si cette IA forte donne le sentiment d’approcher une forme de conscience, nous en sommes très loin, et il n’y a aucune IA forte qui concerne le domaine des RH aujourd’hui.

 

 

 

Qu’est-ce que l’IA peut apporter à l’expérience collaborateur ou à l’expérience candidat ?

Dans son rapport au collaborateur, devenant un client interne, le monde RH s’est de plus en plus inspiré des approches historiques du marketing. La notion de marketing RH est même assumée. La création du concept de marque employeur en est un autre exemple. L’employee experience s’impose, comme la customer experience (CX) avant elle. Les analogies sont évidentes. Les outils utilisés côté CX le sont côté RH désormais. Pour suivre l’analogie, et pour faire face à la pénurie de talents et à la difficulté à attirer les candidats, nous avançons désormais vers une notion de nurturing, qui consiste à « nourrir » le candidat, parfois encore passif, avec des informations ciblées qui vont l’aider à développer de l’intérêt pour l’entreprise. Ces approches RH sont en fait réalisées avec les mêmes outils que ceux utilisés en marketing pour alimenter des prospects qui deviendront de futurs clients et le vocabulaire peut être lui-même transposé : on parle de campagne, de pipe, de conversion, etc. L’IA, dans ce contexte, se révèle particulièrement utile et efficace pour automatiser la sélection et l’envoi des contenus vers les candidats, au bon moment pour eux.

Vous pouvez aussi imaginer que les outils qui permettent d’analyser les sentiments des consommateurs, qui scrutent leurs avis en texte libre, ceux utilisés par des marques pour cibler leurs acheteurs, par exemple, sont aujourd’hui utilisés dans le domaine RH pour exploiter les informations issues des entretiens annuels ou professionnels.

 

Les analogies entre les mondes RH et CX sont aussi visibles dans la gestion des compétences…

Pour la première fois dans les sondages, le sujet de l’identification des compétences est devenu la priorité #1 des RH, devant même la recherche de productivité et de performance. Or, depuis des années, la gestion prévisionnelle des emplois et des compétences se confrontent à l’obsolescence extrêmement rapide des référentiels de métiers et de compétences qui prennent des années à construire. Ce phénomène s’est accentué avec la réduction progressive de la durée de vie moyenne des compétences, aujourd’hui estimée à deux ans par l’OCDE. La plupart des projets de cartographie de compétences ont ainsi échoué face à l’ambition d’être exhaustif, ou lors des phases d’adoption et de déclaration des profils par de collaborateurs débordés par des listes infinies de compétences référencées. Cela crée un terrain de jeu intéressant pour l’IA, car elle répond à cet enjeu à deux niveaux : l’accélération de la création d’un référentiel de compétences et le matching. Chez Oracle, par exemple, nous avons compilé des millions d’enregistrements de données publiques, concernant des CV, des postes à pourvoir, des missions, des référentiels de compétences publiques et nous en avons déduit un référentiel de 130 000 compétences et de 16 000 postes déclinés en compétences requises. Sur cette base, le client peut personnaliser le référentiel pour l’adapter à sa culture propre, à ses métiers. Dans la seconde étape, le matching, on va consommer les contenus individuels des collaborateurs, des postes, des formations, et on va les faire correspondre avec les compétences identifiées. L’IA les soumet au collaborateur, et ce dernier décide s’il détient ou souhaite développer cette compétence, et déclare éventuellement son niveau. Cette approche permet d’obtenir le meilleur compromis entre la préservation de la culture de l’entreprise, la capacité du collaborateur à garder la main sur ce qu’il déclare, tout en bénéficiant de l’accélération et de l’évolutivité du référentiel offerte par l’IA.

 

Quelle place l’IA occupe-t-elle dans le domaine de la formation ?

La connexion que l’on peut faire avec le sujet des compétences, la mobilité et l’évolution de poste, là où l’IA peut vraiment apporter de l’aide, c’est tout ce travail de matching, de mise en relation d’un besoin reconnu et exprimé avec une ressource disponible, qu’elle soit matérielle ou autre. Dans la formation, l’une des grandes difficultés que l’on peut avoir côté RH, c’est de mettre à disposition des collaborateurs l’ensemble des formations du catalogue dans un format accessible. L’IA peut justement suggérer, parmi des milliers de sessions, de contenus, la dizaine de modules les plus pertinents par rapport à des objectifs de développement exprimés, et ce, même si l’information a été saisie en dehors du module formation, durant l’entretien de performance par exemple. L’IA peut aussi être utilisée pour analyser la progression d’un collaborateur dans l’assimilation de certaines connaissances afin de cadencer les bons contenus.

 

Pour reprendre l’exemple du marketing, il y a ce moment assez agaçant, où vous consultez en ligne votre magazine préféré et où surgit une suggestion d’achat qui correspond à une recherche effectuée quelques minutes plus tôt… C’est ce qui pourrait être irritant dans l’IA…

Cette notion d’« explicabilité », de lisibilité pour l’être humain de la raison pour laquelle l’IA me fait telle suggestion est capitale. Ainsi lorsqu’on suggère une compétence dans le profil d’un collaborateur, on indique en sous-titre : « parce que les collaborateurs ayant le même profil que vous déclarent cette compétence » ou « parce que vous avez actuellement tel poste »… Ces explications facilitent l’acceptation et ramènent l’IA à sa force de calcul et de synthèse des multiples sources de données, en limitant l’irritation liée au sentiment de perte de contrôle.

 

 

Quels sont les travers que l’on peut imaginer ?

C’est clairement le côté normatif de l’IA, car elle fonctionne bien pour identifier des archétypes puis proposer des suggestions à un profil en fonction de son niveau de correspondance avec un archétype. Cela peut avoir un effet normatif en poussant des profils très divers vers des contenus devenus normés ou stéréotypés. L’IA vous ramènera souvent sur le chemin le plus emprunté. Or la richesse humaine, c’est aussi sa diversité, son originalité, sa créativité face des situations nouvelles. Pousser les collaborateurs vers des profils normés serait prendre le risque de vulgariser un mode de pensée convenu. Or l’IA n’est pas très efficace pour gérer des approches hétérogènes ou des profils atypiques.

Il faut donc être vigilant pour continuer à promouvoir les parcours atypiques, les croisements de compétences et d’expériences, l’esprit critique, et notre capacité à sortir des sentiers battus…

 

 

 

Quelles sont les applications avant-gardistes de l’IA appliquée aux RH ?

Les champs d’utilisation sont innovants dans la partie reconnaissance faciale, analyse des comportements, de l’état émotionnel, ou encore dans l’analyse automatique du niveau de langue des collaborateurs. J’imagine qu’à l’avenir ce qui se développera aussi ce sont les assistants digitaux, un peu plus experts que les chabots, qui ont des possibilités limitées. Vous pourrez probablement leur demander une multitude d’actions. Chaque collaborateur pourrait avoir son assistant pour écrire un e-mail, obtenir une information, réaliser une recherche, une analyse. Suivons de près les usages émergents autour de ChatGPT, la fameuse application de chat boostée à l’IA, ils seront certainement précurseurs de ce que nous verrons en entreprise.

 

 

Certains usages de l’IA sont prometteurs mais sont-ils tous souhaitables ?

L’IA augmente le potentiel des organisations humaines et leur vitesse d’exécution, de développement, de collaboration. Ses capacités et ses usages s’accroissent jour après jour. Mais l’IA nous met aussi devant nos responsabilités quant aux risques de dérive sur le plan éthique et moral. Il est donc de notre responsabilité collective d’établir un cadre réglementaire qui conditionne les usages, définisse les limites et les droits, avant que nous ne tombions dans une escalade portée par la seule recherche d’efficacité ou de compétitivité.

Ce n’est pas une tâche aisée, mais c’est le grand enjeu des organisations humaines du début du XXIe siècle.

 

 

L’IA à la Une de People At Work #8 : au sommaire ?

Intelligence Providentielle ?

IA : atout ou danger pour l’Expérience Collaborateur ?

C’est avec cette question que la rédaction de People at Work a entamé ses travaux pour ce numéro, il y a quelques semaines. À ce moment-là est intervenu le raz-de-marée ChatGPT. Et comme tout le monde, nous l’avons testé. À la question qui nous occupait, sa réponse :

« Cela dépend de la façon dont elle est utilisée et de la manière dont elle est intégrée dans l’environnement de travail. L’utilisation de l’IA peut aider les employés à se concentrer sur des tâches à plus haute valeur ajoutée. Par exemple, l’utilisation des chatbots peut leur permettre de répondre aux demandes des clients, ce qui peut améliorer la satisfaction des clients et la motivation des employés. Cependant, il est important de veiller à ce que l’utilisation de l’IA ne se fasse pas au détriment de l’emploi et de la QVT. Si elle est mal utilisée, l’intelligence artificielle peut entraîner la suppression de certains emplois et une augmentation de la pression sur les employés qui restent. Il est donc important de mettre en place des mesures pour gérer l’intégration de l’intelligence artificielle de manière équitable et responsable. »

Tout est dit.
À nos lecteurs de décider s’ils feraient la différence entre un éditorial « signé de la patte d’un vrai journaliste » ou un texte « tout droit sorti d’un ordinateur », comme disait l’un de mes anciens patrons de presse.

Anne-Cécile Huprelle,
Rédactrice en chef de People At Work

main robot

Au sommaire de People At Work #8 – IA, tout va bien se penser

Dans le dossier spécial IA

UN GRAND ENTRETIEN : Benoît Coquart, DG du Groupe Legrand

UN VISIONNAIRE :  Cédric Villani

UN EXPERT : Sylvain Letourmy, directeur stratégie applications chez Oracle

 

DES FOCUS :

-MANAGEMENT : Premiers pas avec l’IA, par Myriam Faivre, PDG de la Coopérative d’entrepreneurs CAE CLARA et CLARAbis

-MÉTIERS BOULEVERSÉS : focus en entreprise avec Agnès Duroni, fondatrice d’Adevea et spécialiste du futur du travail, et dans l’industrie avec Xavier Brucker, spécialiste de l’IA dans l’industrie, et Jean-Baptiste Latour, philosophe d’entreprise

BCG X : à l’assaut des transformations digitales

-La transition numérique de Sanofi

-Le leadership génératif selon Fanny Potier-Koninckx Partner & Director, Boston Consulting Group

EDF : une IA pour améliorer l’expérience candidat

-Tribune : comment j’utilise ChatGPT dans mon recrutement ? Par Dan Guez, président du cabinet de recrutement opensourcing.com

-Legislation et IA : que dit la loi en 2023 ? Avec Aida Ponce Del Castillo, avocate

-IA et éthique :  avec Laetitia Orsini Sharps, directrice grand public d’Orange France et présidente de POSITIVE IA

-L’OEIL DE : Luc Ferry, « l’IA forte est une utopie, un pur fantasme ».

 

& aussi

DE LA PROSPECTIVE : Les promesses organisationnelles de l’IA

DES CAS D’ENTREPRISES GREAT PLACE TO WORK

EXPERTISE : La RSE Version BUT

UN DÉBAT : Manager, un poste en désamour ?

 

LA BOITE À OUTILS d’Ilona Boniwell

ENVIRONNEMENTS : le bureau totem

PORTRAIT : Michel Haas, le DRH Pèlerin

 

Acheter et s’abonner à « People at Work »

People At Work #8, le nouveau numéro spécial IA
14,90€ sur monmag.fr

Couverture du magazine People At Work n°8, robot intelligence artificielle