Peut-on avoir une culture d’entreprise numérique ?

La culture d’entreprise est l’ensemble des croyances, valeurs, comportements et pratiques qui englobent l’identité d’une organisation et la manière dont elle fonctionne. Dans un contexte numérique, cette culture repose sur l’utilisation des technologies pour favoriser la collaboration, l’innovation, et l’adhésion aux valeurs organisationnelles.

La culture d’entreprise numérique est non seulement possible, mais elle est devenue essentielle.

La clé réside dans l’équilibre : utiliser les outils numériques pour améliorer la communication et la collaboration, tout en veillant à préserver l’humanité et l’engagement des employés. Les piliers d’une culture d’entreprise numérique

1. Collaboration et connectivité

Dans une entreprise numérique, la collaboration à distance est centrale. L’utilisation d’outils collaboratifs permet aux équipes de travailler ensemble, peu importer leur localisation. Cette connectivité va au-delà des simples réunions en ligne ; il s’agit d’intégrer des solutions permettant le partage de connaissances, de documents transmis en temps réel. Imaginons la collaboration dématérialisée comme des forums de discussion internes ou des espaces de travail virtuels. Une bonne culture d’entreprise numérique encourage la participation active de tous, même à distance. Pour créer du lien et favoriser la convivialité, certaines entreprises mettent en place des « cafés virtuels » ou des séances de brainstorming en ligne.

2. Transparence et communication ouverte

Dans un environnement numérique, la communication doit être transparente et claire. Cela passe par une documentation accessible, des canaux de communication ouverts.

3. Engagement et inclusion

Le sentiment d’appartenance est un élément crucial de toute culture d’entreprise, qui plus est numérique. Dans un environnement digital, il est essentiel d’utiliser des outils et des pratiques qui permettent de maintenir cet engagement. Par exemple, certaines entreprises adoptent des cérémonies virtuelles, des onboarding en visio… L’inclusion joue également un rôle majeur. Il s’agit de s’assurer que tous les employés, où qu’ils soient, bénéficiant des mêmes opportunités d’interagir, de contribuer et d’être reconnus. Les entreprises peuvent organiser des formations spécifiques pour sensibiliser les équipes aux enjeux de diversité et d’inclusion dans un cadre numérique, ou encore adapter leurs outils pour répondre aux besoins des employés handicapés.

4. Innovation et agilité

Une culture d’entreprise numérique doit être tournée vers l’ innovation . Les outils numériques facilitent la mise en place de méthodes de travail comme l’ approche agile.

5. Soutien au bien-être numérique

Une culture numérique doit aussi prendre en compte le bien-être des employés pour lutter contre le burn-out numérique, fléau bien réel. Des initiatives comme des pauses régulières, des mises en place de politique de déconnexion, des ressources mises à disposition pour la gestion du stress sont autant de bonnes pratiques intéressantes.

Pourquoi l’intelligence humaine est-elle battue par l’IA ?

On met beaucoup de choses derrière le mot « intelligence » (apanage de l’être humain) : aurait-on mieux fait de nommer l’intelligence « artificielle » autrement, pour éviter de créer une confrontation homme-machine ?

Cette querelle de mots n’a de sens que si on a d’abord bien compris qu’on parle de trois sortes d’IA. Il y a d’abord l’IA qu’on dit « faible » et étroite, parce que, bien qu’elle soit d’une puissance extraordinaire, elle ne pense pas et ne sait faire qu’une seule chose : elle calcule, ce qui n’est pas la même chose. Elle résout des problèmes incroyablement complexes, en quoi on peut la dire, en ce sens, intelligente, mais en précisant bien qu’elle ne dispose pas de la conscience de soi, qu’elle ne comprend rien à ce qu’elle dit ou fait et qu’elle se contente pour l’essentiel de répondre à des questions à l’aide d’algorithmes qui permettent de traiter d’énormes masses de données (le fameux big data). Depuis la victoire de l’ordinateur Deep Blue sur le champion du monde d’échecs, Gary Kasparov, en l997, l’IA faible a réussi en 2016 à battre le champion du monde de jeu de go, et ses applications s’étendent désormais à tous les domaines ou presque, à la médecine, au droit, à l’économie, à la comptabilité, à l’aéronautique, à l’architecture, au bâtiment, à la finance, bref, à tous les métiers ou peu s’en faut. L’IA faible séquence le génome et commence à faire des merveilles dans le domaine de la traduction automatique, elle gère des pans entiers de l’économie collaborative, une économie qui se caractérise par le fait que l’intelligence artificielle permet à des non-professionnels de concurrencer les professionnels de la profession. Elle aura des retombées majeures dans le domaine de la défense, l’organisation du trafic routier ou aérien, la surveillance à domicile des personnes très dépendantes, la lutte contre la criminalité et le terrorisme, l’organisation des secours humanitaires, et dans mille autres secteurs encore. Le deuxième visage de l’IA est celui de la « super IA », qui reste encore une IA faible, mais qui serait large, contextualisante et transversale, de sorte qu’elle devienne, selon la définition que Nick Bostrom en donne, « supérieure à l’être humain, non pas dans un seul domaine comme les échecs, le jeu de go ou le séquençage du génome, mais dans tous les domaines ». Le troisième visage de l’IA, serait (je mets au conditionnel car il s’agit d’une utopie) celui d’une IA forte, une intelligence dotée, comme la nôtre, de conscience de soi, de libre arbitre et d’émotions, mais incarnée (si l’on peut dire) sur une base non biologique. Alors, nous aurions créé une post-humanité dont nous deviendrions dans le meilleur des cas, comme l’a dit Elon Musk, les animaux domestiques. Pour aller à l’essentiel, on pourrait dire que l’IA forte serait l’intelligence d’une machine capable, non pas seulement de calculer ou de mimer de l’extérieur l’intelligence humaine, mais qui serait bel et bien dotée des trois éléments jusqu’à présent exclusivement humains : la conscience de soi, la faculté de prendre des décisions et celle de ressentir des émotions (l’amour et la haine, la peur, la souffrance et le plaisir, la jalousie, etc.).

L’IA fascine ou fait peur. Pourquoi suscite-t-elle autant de passions ?

Si nous parvenions à créer une IA forte, cette IA du troisième type, alors c’en serait en effet fini de l’humanité, nous serions dépassés et remplacés par une post-humanité. Cela dit, autant je pense que la deuxième IA est déjà là, incroyablement efficace, comme on le voit par exemple avec ChatGPT, autant l’IA forte est une utopie, un pur fantasme. Comme l’écrit Aurélie Jean, l’une des meilleures spécialistes des algorithmes, dans son livre De l’autre côté de la machine [Éditions de l’Observatoire, 2019], l’idée relève de la science-fiction, pas de la science, ce qui n’empêche pas cette notion de fixer à la recherche une espèce de point de fuite ou, pour parler comme Kant, « d’idéal régulateur », car, dit-elle : « C’est en visant ce “point de singularité” que nous autres scientifiques pouvons avancer à pas de géants dans notre compréhension du monde… Même si je suis consciente qu’un robot ne pourra jamais ressentir une émotion, viser ce point de singularité aide les scientifiques à avancer dans la recherche pour simuler au mieux une émotion. » Belle leçon, qui, depuis la déconstruction kantienne de la métaphysique et l’épistémologie de Karl Popper, avait déjà été comprise par la philosophie critique, mais que nos scientistes matérialistes d’aujourd’hui ont tendance à oublier, animés qu’ils sont à tort par la conviction que nous ne sommes nous-mêmes rien d’autre que des machines.

En France, l’IA intègre de plus en plus l’entreprise, particulièrement dans le domaine des ressources humaines. On parle déjà de robots qui, demain, pourraient analyser les comportements, décrypter l’humeur des collaborateurs… Où seront les limites ? Et, d’ailleurs, veut-on en poser ?

Cessons de fantasmer, une machine reste une machine, c’est à nous, les humains, de l’utiliser. Grâce à l’IA – qui permet de séquencer en un rien de temps le génome d’une cellule cancéreuse – on guérit, au moyen d’immunothérapies et de thérapies ciblées, des cancers qui étaient mortels il y a cinq ans encore. Qui s’en plaindra ? Le problème, ce n’est pas la technologie mais l’humanité. La Première Guerre mondiale a fait 20 millions de morts, la seconde 60 millions, et la Révolution culturelle chinoise autant, le tout sans IA ni technologies d’aujourd’hui. À nous de garder nos valeurs… et les pieds sur terre.

Les « pro-IA » considèrent que cette intelligence est une opportunité pour « dérobotiser » le travail humain. Quand la machine gérera des tâches laborieuses, on pourra se concentrer sur les relations humaines, justement. Y croyez-vous ?

Il n’y a pas de pro- et anti-IA, ça n’a aucun sens. Elle est là, et rien n’arrêtera son développement. Être pour au contre serait comme être pour ou contre le réel. La question est de savoir ce qu’on en fait. Et oui, je ne crois pas à la thèse de la fin du travail, développée notamment par Jeremy Rifkin. Elle repose, comme je l’ai montré dans un livre coécrit avec mon ami Nicolas Bouzou, sur une incompréhension totale de la logique de l’économie capitaliste. Comme Joseph Schumpeter l’a montré, les progrès technologiques créent des emplois, et, du reste, les pays les mieux équipés en robotique et en IA sont en général ceux où le chômage est le plus faible. Eh oui, si on peut libérer les humains de tâches fatigantes et dénuées de sens, tant mieux.

GPT fait beaucoup parler. Vous-même, vous avez écrit que ce logiciel bouleversera l’enseignement. Comment ne pas penser à un scénario catastrophe ?

Je n’ai pas d’inquiétude majeure concernant GPT pourvu que nous soyons capables d’en faire bon usage. Certains, comme à Science Po, veulent interdire GPT aux élèves. Je pense que toute interdiction est non seulement impossible (tout étudiant peut avoir le logiciel dans son smartphone, donc dans sa poche), mais surtout assez absurde. Plutôt que d’interdire ce qui ne peut pas l’être, il va falloir adapter la pédagogie et les épreuves d’examen, en demandant par exemple aux étudiants de poser leurs questions à GPT, de citer ses réponses et, à partir de là, de les discuter, d’en faire la critique et de les compléter.

Le philosophe Gaspard Koenig craint la fin de l’individu, du libre arbitre, de l’autonomie. Se met-on volontairement en position de soumission face aux machines ?

C’est une posture médiatiquement payante, typique des réactions d’un monde intellectuel qui a compris que le pessimisme et l’esprit de critique vous donnaient toujours un air de supériorité sur le commun des mortels. Pourtant l’argument est faible, à vrai dire aussi sophistique que fallacieux. Il est emprunté à Yuval Noah Harari, dont le livre, Homo deus a connu un vif succès, qui écrit ceci : « Le libéralisme s’effondrera le jour où le système me connaîtra mieux que moi. L’IA décidera alors pour moi de ma santé, de mon vote, voire de mon mariage mieux que je ne le ferais moi-même. Par intérêt bien compris, je renoncerai alors à l’exercice de ma liberté. » Selon Gaspard Koenig, l’un de ses épigones français, « la possibilité du choix moral est gravement remise en cause par l’usage industriel de l’IA et des data qui nous ôtent la peine de décider par nous-mêmes ». Ainsi, par exemple, le médecin assisté par un logiciel de diagnostic serait peu à peu contraint de suivre les avis d’une machine qui engrange des data et des algorithmes infiniment supérieurs à ceux dont peut disposer son malheureux cerveau, ce qui anéantirait sa liberté. À y regarder d’un peu plus près, j’espère qu’on comprendra que cette argumentation, pour frappante qu’elle soit, est purement sophistique. Car de deux choses l’une : ou bien la machine a éclairé utilement le médecin, et c’est une aide précieuse qui lui permettra de mieux servir son patient, mais aussi de se concentrer sur ce que son métier a de spécifique et que la machine ne sait pas faire, le conseil et la relation humaine avec le malade dans l’élaboration d’une stratégie thérapeutique ; ou bien il estime que la machine se trompe, et je ne vois rien qui l’empêche de le dire au patient, d’en discuter avec lui de manière argumentée afin de le laisser choisir entre lui et le logiciel. En voyant dans l’IA et les data d’abominables nudges, des « coups de pouce » qui peu à peu rognent notre liberté, Koenig et Harari, confondent en permanence ce que Sartre distinguait fort à juste titre, à savoir une « situation » et une « détermination ». Nous sommes toujours, cela va de soi, « en situation ». Je suis né homme ou femme, prolétaire ou bourgeois, dans tel milieu social, telle nation, à telle époque, dans telle culture et telle langue, avec tel patrimoine génétique, etc. Mais ce n’est pas parce qu’on est né femme qu’on est obligé de vivre rivée aux fourneaux et à l’éducation des enfants. Ce n’est pas parce qu’on vient au monde prolétaire qu’on sera forcément communiste, et ce n’est pas parce que l’IA de Google dit à Angelina Jolie, avec plus de fiabilité qu’un médecin humain, que son risque de développer un cancer est de 87 %, qu’elle « perd son autonomie » en suivant son conseil, comme l’écrit de manière hâtive et mal argumentée Yuval Harari. Dans tous ces cas de figure, nous avons affaire à des situations, non à des déterminations fatales qui viendraient anéantir notre libre arbitre. C’est même tout l’inverse, car c’est justement par rapport à des situations qui peuvent sembler a priori contraignantes qu’il trouve au mieux à s’exercer. Non seulement l’IA ne va pas détruire notre liberté, mais elle peut, si nous savons l’utiliser intelligemment, rendre d’immenses services à l’humanité.

Pourquoi l’intelligence humaine est-elle battue par l’IA ?

« L’IA est déjà bien supérieure à notre intelligence dans des jeux comme les échecs, le poker, le bridge ou le jeu de go, mais, plus sérieusement, dans la comptabilité, la radiologie, le séquençage du génome d’une cellule cancéreuse, l’organisation des transports, des chaînes de logistiques, la régulation du trafic aérien, et mille autres secteurs encore… Simplement, elle ne pense pas ce qu’elle fait ou dit, ce n’est pas de l’IA forte, ce qui ne l’empêche pas de résoudre quantité de problèmes infiniment mieux et plus vite que nous. »

Allier IA et éthique, mission impossible ?

 « Nous nous sommes rendu compte que les entreprises avaient aujourd’hui besoin d’accompagnement et de solutions pour progresser et rendre visible la mise en œuvre d’une IA responsable au sein de leur organisation », déclare Lætitia Orsini Sharps, directrice grand public d’Orange France et présidente de Positive AI, une association créée en 2022 par Orange France, L’Oréal, Malakoff Humanis et BCG Gamma. « L’IA responsable, c’est pour le bénéfice de l’humain et c’est contrôlé par l’humain », poursuit-elle. Il est extrêmement important que les entreprises soient capables de montrer que ce progrès technologique est bien au service de la société. »

L’une des principales missions de Positive AI est « d’offrir aux entreprises un espace d’échange, de dialogue et de partage sur les bonnes pratiques pour réfléchir ensemble aux interrogations qui sont essentielles et faire progresser ce sujet d’une IA éthique et responsable », précise sa présidente. Lætitia Orsini Sharps lance aussi un appel aux dirigeants pour qu’ils s’intéressent à ces problématiques, qui ne devraient pas, selon elle, concerner les seuls data scientists : « Ce sont des sujets dont les dirigeants doivent s’emparer. Ils doivent comprendre tout le potentiel de cette IA, et en même temps toutes les règles et la gouvernance qu’il faut mettre en place pour que ces outils restent pilotés par l’humain et soient au service de l’humain. Des positions doivent être prises et elles doivent être très fortes. »

Un label certifiant la gouvernance et les systèmes d’une IA éthique

Pour apporter des solutions concrètes permettant aux organisations de rendre opérationnelles ces bonnes pratiques, Positive AI est en train de finaliser la mise en place du premier label d’IA éthique en France. « Ce label permettra aux entreprises de vérifier leur niveau de maturité sur l’IA responsable », explique la dirigeante. À travers un référentiel établi par les équipes de data scientists et de chefs de projet des quatre entreprises fondatrices de l’association, et suivant les principales recommandations émises par la Commission européenne, ce label sera construit autour de deux piliers : la gouvernance de l’organisation et les systèmes d’IA eux-mêmes.

Une partie de ces systèmes, « ceux qui seront identifiés comme présentant le plus de risques », seront examinés en profondeur par les auditeurs. Les organisations devront aussi fournir des éléments prouvant leurs bonnes pratiques en matière de contrôle par l’humain de ces systèmes, par exemple, la protection de certaines populations. « En auditant aussi la gouvernance, on peut revenir sur ce qui a été audité. Cela va garantir qu’au sein de l’entreprise on ait un système global vertueux. »

La note finale donnant droit à la labellisation Positive AI, valable deux ans, permettra à l’organisation de savoir auquel des trois niveaux prévus par le référentiel correspond la maturité de son IA. Ce point est très important, selon la présidente, puisque le label doit être « accessible à l’ensemble des entreprises » : « On est vraiment dans une logique de progression et d’apprentissage en commun. » Les organisations fondatrices de l’association seront les premières à passer l’épreuve de la certification, et le label sera ensuite ouvert aux entreprises extérieures dans le courant du deuxième trimestre 2023.

Mobiliser en interne et contribuer au débat public

Ainsi, les organisations de toute taille et de tout secteur pourront adhérer à Positive AI et candidater au label. « On a posé ce socle, mais il est au service de l’ensemble des entreprises, donc, plus nous serons nombreux, plus ce sera riche. C’est l’abondance de regards croisés, d’approches différentes, avec diverses modalités de mise en œuvre, qui fera la richesse de la démarche », indique Lætitia Orsini Sharps. En interne, une IA responsable est également importante « pour attirer et retenir les collaborateurs, poursuit-elle. Les data experts cherchent du sens dans ce qu’ils font, dans leur parcours professionnel, et veulent s’impliquer dans des organisations qui partagent leurs préoccupations en matière d’éthique ».

Une autre ambition de Positive AI est de participer activement aux discussions sur la constitution de normes, tant au niveau français qu’à l’échelle européenne : « Notre objectif est aussi de contribuer au débat public sur la régulation et les perspectives de l’IA, en se rapprochant d’acteurs publics et privés, en France et à l’étranger, pour mettre en commun cette approche. Cela nous semble important d’avoir une vision européenne de cette IA responsable. Nous contribuerons au débat en soutenant la position concrète et pragmatique d’entreprises qui font l’IA et qui l’utilisent. »

IA : que dit la loi en 2023 ?

Les récentes avancées en matière d’intelligence artificielle (IA) représentent « une grave menace pour les droits humains » (alerte du 18 février par le Haut-Commissaire des Nations unies aux droits de l’Homme). L’inquiétude de l’ONT est-elle justifiée ?

L’inquiétude est élevée car la réglementation n’est pas encore claire en termes de classification des risques et de mise en œuvre et la surveillance par les autorités compétentes. La menace que l’on vit est celle du changement de valeurs de l’humanité, par des décisions qui sont de plus en plus automatisées. L’IA, à terme, peut ébranler notre sécurité, voire, notre santé mentale, notre façon de vivre. Les relations interpersonnelles sont également touchées, j’en veux pour preuve, le succès de certains algorithmes de recommandations, employés sur les réseaux sociaux. Cela nous donne une idée précise : de ce que certaines décisions indicible, impalpable, immatérielle, peuvent avoir comme conséquence.   En outre, l’UE ne peut ignorer les risques incertains, ceux auxquels les générations futures seront confrontées. Nous avons besoin d’une bonne gouvernance pour résoudre ce problème, et je ne suis pas sûr que la proposition actuelle de loi sur l’IA y réponde. Au niveau de l’entreprise, les travailleurs devraient également disposer de cette capacité critique.

IA : Beaucoup de collaborateurs se disent préoccupés. De quels outils dispose-t-on pour protéger leurs données personnelles ?

La loi sur la vie privée qui existe depuis longtemps, et récemment mis à jour au niveau de l’UE. Il s’agit du RGPD . C’est un aspect fondamental du droit humain., qui a une connotation d’extra-territorialité. D’autres pays ont importé les dispositions  de la RGPD dans leurs juridictions telles que l’Australie, le Canada, le Chili, ou bien le Japon. Un autre outil consiste à sensibiliser chaque individu à la protection de ses propres données personnelles et à sa capacité à s’interroger de manière critique sur l’opportunité de fournir ses données personnelles aux nombreuses entreprises qui les collectent pour leur propre profit.

Quelles propositions pourraient-être faites pour que l’Europe assume une position de leader numérique en garantissant les droits fondamentaux des salariés ?

L’Europe est un leader numérique au niveau de la gouvernance. C’est la première juridiction  à avoir fait passé des lois sur des systèmes d’IA, c’est très pertinent en termes de positionnement géopolitique . Au niveau technique, l’Europe n’est pas séduisante comme l’Asie ou l’Inde ou bien les les États-Unis. Elle veut faire une sorte de contre-poids, mais l’UE ne peut se contenter de proposer de nombreuses directives et règlements, le véritable pouvoir résidera dans leur mise en œuvre effective. La proposition législative actuelle sur la prise de décision et la surveillance algorithmique ne s’appliquera qu’aux travailleurs des plateformes. Les législateurs ont la responsabilité d’étendre ces dispositions à tous les travailleurs afin qu’ils bénéficient d’une prévention et d’une protection réelles sur leur lieu de travail.  Je pense qu’un nouveau cadre juridique dans le contexte de l’emploi est nécessaire. Les travailleurs ne devraient pas avoir des droits « théoriques », mais des droits qu’ils peuvent effectivement exercer à l’ère de l’IA. La Course à l’IA est économique.

Témoignage : comment j’utilise ChatGPT pour optimiser mon recrutement

Alors comment un service recrutement peut-il utiliser ChatGPT ?

L’idée est de tirer parti cette révolution sans trop bouleverser les processus.

La première application consiste à générer des descriptifs de postes attractifs pour les offres d’emploi ou des fiches de postes internes. Il faut tout d’abord fournir à ChatGPT les informations clés sur les postes en question, telles que le contexte, les missions, les exigences ou les compétences requises… Ensuite, demandez à ChatGPT de rédiger votre texte en utilisant ces informations. Vous pouvez aussi lui demander d’adopter un ton spécifique, humoristique par exemple.

Un autre usage est d’automatiser la réponse aux questions fréquentes des candidats lors du processus de recrutement.

Pour cela, il nous faut tout d’abord identifier les questions fréquentes des candidats, telles que les informations sur les missions, les horaires de travail, les avantages sociaux… Puis brancher un chat conversationnel tel que ChatGPT sur notre ATS (Applicant Tracking System, ou système de suivi des candidatures) afin d’automatiser les réponses.

Vous pouvez aussi employer ChatGPT pour évaluer les compétences linguistiques ou techniques des candidats. Demandez-lui de rédiger un QCM[1] et proposez aux candidats d’y répondre. Ainsi, vous obtenez des résultats fiables et cohérents qui vous permettront d’améliorer la présélection, d’économiser du temps et de mieux préparer vos entretiens physiques. Les champs d’application sont nombreux : langues étrangères, langages de programmation, connaissances techniques…

Poussons cette dernière pratique : vous pouvez aussi utiliser ChatGPT pour analyser les réponses des candidats aux questions posées préalablement afin de déterminer leur adéquation au poste. Ainsi, vous optimisez vos décisions de recrutement grâce à une évaluation objective et précise de la pertinence des candidats. Cela vous permet également d’économiser du temps et de standardiser vos processus pour une évaluation plus cohérente.

À l’aide de ChatGPT, vous pouvez aussi travailler votre marque employeur, en rédigeant du contenu qualitatif en un rien de temps, pour votre site carrières ou vos réseaux sociaux. Demandez-lui aussi de revoir votre communication écrite avec les candidats afin de fluidifier, de professionnaliser et d’améliorer l’expérience candidat.

Pour être franc avec vous, cette révolution me fascine autant qu’elle me fait peur, mais elle est bien réelle. Je pense qu’en tant que recruteurs nous devons nous adapter et intégrer cette nouvelle technologie à nos processus de recrutement, car les avantages sont nombreux. Je préciserai que cette intelligence artificielle doit rester au service de l’humain et non l’inverse.

[1] Questionnaire à choix multiples.

EDF Recrute : un IA pour améliorer l’expérience candidat

 « On a un flux gigantesque, et on en est très ravis. Notre site fait partie des plus utilisés en France, et c’est vraiment une grande fierté pour nous », déclare Charles Montorio, responsable du pôle mobilité et recrutement du groupe EDF. Le premier producteur et fournisseur d’électricité en France, fort de 135 000 collaborateurs en Europe et de 165 000 dans le monde, connaît actuellement des volumes de recrutement très importants, avec 15 500 embauches en 2022 au sein du groupe, dont 2 800 chez EDF SA. « L’année 2023 redémarre sur des volumes au minimum équivalents, voire à la hausse par rapport à 2022 », table le responsable.

Dans « un marché qui est pratiquement un marché de plein-emploi », la concurrence avec les autres industriels est vive : « On s’aperçoit que si l’on veut continuer d’être compétitifs, d’améliorer notre sourcing et d’avoir un maximum de candidats qui viennent plutôt signer chez EDF qu’ailleurs, il faut qu’on ait des fonctionnalités nouvelles. » C’est pourquoi le groupe vient de lancer sur sa plateforme de recrutement une solution d’intelligence artificielle permettant de « faciliter l’expérience candidat » en apportant une dimension de matching de CV : « C’est quelque chose qui est déterminant dans la compétitivité qui est la nôtre avec d’autres industriels. »

S’adapter aux nouvelles attentes des candidats, et faciliter le travail des recruteurs

Cet outil vise à guider les postulants pendant tout leur parcours de candidature : « Le candidat arrive sur le site, crée son compte, poste son CV, et l’IA intervient immédiatement pour lui proposer une somme de postes qui correspondent à sa demande », explique Charles Montorio. « Le candidat a ensuite la possibilité d’affiner sa requête en sélectionnant un job, un territoire et un niveau de qualification. » Ce dispositif vise à répondre aux nouvelles attentes et postures des chercheurs d’emploi : « Les candidats aujourd’hui vont au plus pressé, au plus offrant, et à celui qui propose les meilleures conditions pour travailler. Ils n’ont donc pas le temps d’aller sur des sites carrière, d’ouvrir 25 arborescences pour laisser des CV et d’attendre qu’on leur réponde. Ils ont besoin d’avoir une réponse immédiatement, comme lorsqu’ils commandent en deux minutes sur Internet. Donc notre challenge, c’est de faire en sorte qu’on ait réussi à les capter dans ces deux minutes. »

Le contact avec un salarié d’EDF se doit également d’être le plus rapide possible : « Une fois qu’on l’a capté, il faut très vite qu’il soit mis en relation avec le recruteur, parce que c’est essentiel qu’il voie quelqu’un pour l’aider à faire son choix. Il faut qu’on puisse répondre à ses questions. » Du côté interne, cet outil s’ajoute à la solution MyHR et lui permet d’être « en capacité industrielle » de traiter les centaines de milliers de candidatures reçues chaque année. Il vient également apporter des informations indispensables en matière de ranking et de scoring. « Nous a besoin d’outils qui simplifient le boulot de celles et ceux qui recrutent, a fortiori quand les volumes sont aussi importants », estime le responsable. Cette solution d’IA permet ainsi aux recruteurs de « prendre un peu de recul ou de hauteur par rapport à l’analyse des documents » avant de travailler en profondeur la caractérisation et l’entretien d’embauche.

Une « logique de progrès permanent »

Établi en partenariat avec un éditeur extérieur, et avec la participation active des équipes de recruteurs et de spécialistes des questions SI et IT au sein du groupe, cet outil d’IA a été « bâti avec et pour les utilisateurs ». Il a néanmoins été volontairement limité à la moitié de sa capacité réelle « pour éviter les biais, les travers », précise Charles Montorio. « Ce sont des cordes de rappel qu’on s’oblige à respecter. EDF est un employeur responsable et souhaite éviter ces biais. »

Dans sa « logique de progrès permanent », le groupe entend développer plus loin son utilisation de l’IA au sein des RH, sur des questions de mobilité, de formation, et bien entendu de recrutement. « Ce n’est pas une chose spontanée ou naturelle », précise le responsable : « Il faut qu’on l’éduque cette IA. Plus elle va être pertinente et plus on en aura besoin, c’est un cercle vertueux. Je pense que nous aurons gagné, sur la partie recrutement, quand l’IA sera suffisamment pertinente pour faire remonter à la surface des CV auxquels nous n’aurions jamais pensé. Là on pourra considérer que l’IA a fait son job. »

Un autre domaine important où l’IA a un rôle à jouer est la féminisation des métiers au sein d’EDF : « Nous avons une ambition qui est très forte sur ce sujet-là. Nous avons terminé 2022 avec 29 % de recrutement de femmes, là ou l’année précédente nous étions deux ou trois points en deçà. Nous visons à recruter 36 % de femmes à l’horizon 2030, et nous espérons que l’IA peut nous y aider. 

La transition numérique de Sanofi

Quelles sont vos missions au sein du groupe Sanofi ?

Avec mes équipes, nous travaillons pour améliorer l’expérience sur les outils digitaux. Et ce durant tout le parcours du collaborateur dans l’entreprise, de son intégration en passant par son développement et ses évolutions de carrière. La vocation de Sanofi est de poursuivre les miracles de la science pour améliorer la vie des gens, et notre mission est d’améliorer la vie de tous nos collaborateurs.

L’IA est-elle intégrée au cœur des métiers de Sanofi ?

Oui. Nous avons beaucoup de partenariats avec des start-up françaises mais aussi internationales pour, par exemple, accélérer le diagnostic des personnes atteintes de maladies rares. Aujourd’hui, près 3 millions de Français en souffrent, dont la moitié sont des enfants. Le délai moyen de diagnostic en France est de deux à trois ans, et 25 % des malades restent en errance diagnostique entre cinq et seize ans. Avec ce partenariat, nous avons donc une belle opportunité d’accélérer le diagnostic des malades. Autre exemple, nous développons également des méthodes de machine learning et d’intelligence artificielle de pointe afin d’exploiter au mieux les données durant toutes les étapes que comprend le développement de nouveaux médicaments ou de vaccins, puisque la recherche est l’un de nos métiers d’expertise. En 2022, nous avons lancé notre « accélérateur digital », dont la vocation est d’aider l’entreprise à concrétiser son ambition de figurer parmi les leaders de la santé digitale. Il vise à développer des produits et solutions au service de la mission du groupe grâce au numérique, aux données et à l’IA. Implanté à Paris, il s’appuie déjà sur une équipe de plus de 75 spécialistes du monde entier et continuera de recruter des talents de premier ordre, spécialisés dans le product management, le développement full stack et la data science. On accélère l’adoption de cette technologie dans un grand nombre de solutions afin d’apporter de la valeur à nos collaborateurs, à nos chercheurs, aux patients et aux professionnels de santé.

Quel est le rôle de la DRH dans cette implémentation de l’IA ?

L’expérience de nos collaborateurs est une priorité, et les RH s’appuient beaucoup sur cette technologie, et plus largement sur les outils digitaux, pour améliorer leur bien-être dans l’entreprise, leur développement professionnel et personnel, qui sont deux grandes priorités, et surtout pour être dans l’air du temps, en accélérant leur adoption du digital. Si l’IA est importante, il ne faut pas négliger le volontariat des collaborateurs, la RGPD, la qualité, car nous évoluons dans un secteur réglementé, et ces éléments sont essentiels à prendre en compte. Notre stratégie n’est pas de surfer sur la vague mais de le faire intelligemment, de savoir comment s’en servir pour apporter de la valeur à nos collaborateurs.

Comment l’IA peut-elle améliorer l’expérience collaborateur ?

Nous l’utilisons à travers deux domaines : le développement et la formation, qui sont pour nous le même sujet, et l’engagement, le bien-être des salariés. Sur la partie développement personnel, nous avons mis en place un outil RH depuis un an où les collaborateurs ont leur profil détaillé et où ils peuvent, sur la base du volontariat, trouver tous les postes proposés ainsi que les différentes organisations internes, leur permettant de se connecter avec d’autres collaborateurs. Cet outil interne recense l’historique des postes qu’ils ont occupés tout au long de leur carrière, les compétences et les aptitudes qu’ils ont indiquées, comme sur un profil LinkedIn, et l’IA permet de faire correspondre leur profil avec des opportunités de développement. Cela peut être du networking, de la connexion au sein de l’entreprise avec des personnes qui ont les mêmes aspirations de carrière, les mêmes compétences, ou des postes à pourvoir. C’est un peu comme un réseau social, mais interne.

Une partie dite projets est également visible : il s’agit de projets internes postés par des managers ou des collaborateurs et pour lesquels sont recherchés des talents au sein du groupe. Cela amène une grande amélioration de la diversification de nos talents dans leur développement personnel. Par exemple, j’ai pu recruter des personnes en Afrique du Sud qui évoluaient dans le domaine de la finance, dans des métiers qui n’avaient rien à voir avec le mien et que je n’aurais jamais pu rencontrer par le réseau classique. Cela permet ainsi d’agrandir et d’apporter beaucoup plus de diversité, d’interconnexion et d’inclusion au sein du groupe, et surtout d’enlever les biais cognitifs que peut avoir une personne lorsqu’elle recrute en interne, parce que les profils correspondent aux compétences et non pas à la personne.

Et qu’apporte l’IA en matière de formation ?

Sur le même concept, l’IA va venir regarder de façon anonyme, toujours sur la base du volontariat, le profil et les compétences d’un collaborateur et lui proposer des formations en lien avec son parcours de développement et qui correspondent aux objectifs du groupe. La valeur ajoutée de l’IA permet d’apporter de la personnalisation, c’est-à-dire que nous avons des solutions adaptées aux besoins, qui sont faites de façon automatique pour que les collaborateurs puissent se focaliser sur leur développement personnel et se libérer du temps pour apporter plus de valeur, en se focalisant sur leur accompagnement personnalisé. C’est un sujet passionnant qui favorise aussi la cross-fertilisation. Cela permet vraiment de casser les silos que l’on peut avoir dans les grandes entreprises et de faire ressortir le potentiel des collaborateurs.

Vous parliez également d’engagement. Comment les outils d’IA peuvent-ils aider sur ce sujet ?

Depuis plusieurs années, l’engagement est une des priorités chez Sanofi, que ce soit le bien-être, la diversité, l’équilibre entre vie professionnelle et vie privée, le développement personnel. Nous faisons régulièrement des enquêtes anonymes auprès de nos collaborateurs sur ces thèmes. Par exemple, fin 2021, nous avons mis en place un outil interne pour aider les managers à soutenir leurs talents dans leur parcours « bien-être ». L’IA va regrouper les réponses par thématiques, les scores, et transmettre en très peu de temps au manager les points forts de son équipe comme les points d’amélioration, et ainsi proposer des plans d’action concrets. Les collaborateurs ont connaissance des résultats ce qui permet à toute l’équipe de mettre en place ces plans d’action et de les suivre. C’est très important pour un collaborateur de savoir qu’il y a un plan d’action derrière.

Les collaborateurs participent-ils à l’élaboration de ces outils ?

Toutes les solutions qui touchent aux salariés sont faites en collaboration et font appel au design thinking. Nous prenons des échantillons représentatifs de notre population, auxquels nous présentons ce que nous pensons faire, les besoins autour de certaines thématiques. Il s’agit d’un vrai échange. Comme mentionné précédemment, tous nos outils en développement font l’objet d’enquêtes de satisfaction et de comptes rendus : nous co-construisons les solutions que nous apportons. Et ce cercle vertueux ne s’arrête pas là, car nos outils sont développés en mode agile, avec des petits cycles de développement très courts basés sur le retour des collaborateurs. Cette pratique se fait pour tous les outils qui apportent une amélioration en continu. Dans tous les cas, je dirai que, si le potentiel de l’IA semble illimité, il ne remplace pas la compétence humaine. Le plus important est d’associer les deux pour pouvoir progresser.

BCG X : les enjeux de la transfo digitale

Pour Camille Brégé, l’équilibre entre l’angle tech et l’angle business se révèle essentiel pour la réussite d’une transformation digitale : « Le plus difficile, quand on crée un actif digital, ce n’est pas la partie technique, mais la partie business process qui va avec, et qui comprend par exemple l’acculturation des collaborateurs. La question de l’accompagnement est donc centrale. La règle d’or en la matière est 10/20/70 : 10 % des efforts résident dans la construction de l’algorithme, 20 % dans son implémentation dans les systèmes d’information existants, et 70 % dans l’intégration dans les modes de travail des équipes au quotidien. Ces 70 % constituent la clé de la dimension humaine de l’IA et elle est la plus importante. Elle ne doit surtout pas être sous-estimée. C’est la raison pour laquelle nous travaillons avec nos clients sur les questions de gestion du changement et de la formation. »

Un modèle collaboratif pour impliquer l’ensemble des utilisateurs

BCG X travaille sur la base d’un modèle collaboratif, qui mobilise un grand nombre de parties prenantes, des membres de la direction aux collaborateurs en passant par les équipes techniques et les managers. « Il faut que les interlocuteurs business, les représentants du comité exécutif et les utilisateurs soient impliqués. Sinon on risque de construire quelque chose hors-sol », explique Camille Brégé. Le soutien des équipes dirigeantes est aussi essentiel : « Sans support affirmé de la part de la direction, les transformations échouent. »

Convaincre les collaborateurs, parfois dubitatifs, de l’impact positif de l’IA fait également partie de l’accompagnement proposé par BCG X : « Nous pensons que l’IA apporte de la valeur si elle est combinée à l’humain. Il convient de composer avec des algorithmes, des intuitions business et de la stratégie. »

En plus d’apporter « une plus grande confiance dans les décisions prises parce qu’elles sont sous-tendues par des simulations et par de la donnée transparente », l’IA a pour atout, par son caractère transverse, d’améliorer l’expérience collaborateur : « La data et le digital aident à casser les silos, ce qui permet au collaborateur de prendre du recul et d’avoir une meilleure compréhension des enjeux auxquels l’entreprise est confrontée, et donc de se dire qu’il peut contribuer à les résoudre. Si on l’appréhende de la bonne manière, l’IA permet d’apporter plus de sens. »

RH : un terrain de jeu pour l’IA

Des fantasmes entourent l’intelligence artificielle. Le concept est très clivant : comment l’expliquez-vous ?

En fait, il faut se poser les bonnes questions : pourquoi l’IA se développe-t-elle aussi vite dans nos organisations ? L’une des raisons en est tout simplement qu’elle nous aide à dompter la complexité de notre environnement et qu’elle nous permet de nous adapter collectivement à un monde qui se transforme de plus en plus vite.

L’IA est à la croisée de multiples chemins : la reconnaissance de textes, de la voix, des visages, des émotions ; la capacité à extrapoler des données et d’en déduire des cheminements, d’être prédictifs sur certains domaines et, plus récemment encore de générer des textes, des images, des contenus. Forcément, quand on parle d’IA, il y a une myriade de possibles, et, forcément, dans l’imaginaire, cela ne se matérialise pas de la même façon. Dans ce domaine, chacun est tenté d’expérimenter des choses. La détection, par exemple dans les espaces publics, est l’un usage qui peut être assez effrayant et dont les dérives sont évidentes. Il est nécessaire cependant de distinguer la réalité du fantasme et, dans le domaine du réel, de porter toute notre attention sur ce qui est souhaitable, et pas seulement sur ce qui est possible. Entre les deux, il y a le cadre éthique, la réglementation et les limites managériales que l’on se fixe.

Ces limites restant floues, la « peur de perdre le contrôle » est donc bien légitime…

L’IA, déjà, c’est un algorithme ou un modèle mathématique conçu pour imiter la façon dont les humains pensent et résolvent des problèmes. Cet algorithme est entraîné sur la base de millions d’enregistrements de données pour produire les prédictions le plus précises possible. Plus on le « nourrit », plus on le « corrige », plus il apprend et devient conforme et précis. Donc ce n’est pas figé, c’est un produit qui, lui-même, est évolutif.

Il y a déjà une première inquiétude : qui va nourrir cet algorithme ? Ces données seront-elles le reflet de ce que l’on souhaite ou de ce que l’on a fait dans le passé ? Je vous donne un exemple concret : dans une entreprise où des cadres masculins étaient davantage recrutés que des femmes, si on alimente l’algorithme de l’IA avec ce type d’historique, celle-ci va considérer que le critère « être un homme » est plus favorable pour obtenir la position de manager. Le premier biais de l’IA est donc directement lié à l’historique des données. Deuxième réticence : une fois que cette IA s’est formée, elle produit des réponses, mais le raisonnement concernant celles-ci n’est pas analysable ni explicable. Cet effet black box a pendant très longtemps été l’un des freins majeurs, car la réponse était produite avec un taux de fiabilité, certes très bon, mais sans que l’on puisse dire pourquoi il l’était et selon quel critère. La troisième réticence est liée à l’impact que l’IA pourrait avoir sur notre travail, sur notre place d’être humain, sur notre collaboration possible dans un monde où elle travaillerait à nos côtés. C’est clairement la peur d’être cannibalisé par ce type de solutions, d’observer des dérives éthiques ou morales qui risqueraient de porter atteinte au socle de confiance que nous développons entre êtres humains.

Chez Oracle, nous avons réalisé une étude, avec Odoxa, pour discerner les usages acceptés ou non dans le domaine des RH. Nous avons détecté trois catégories d’usage de l’IA : dans le premier cas, ceux qui apportent une forme d’augmentation des capacités humaines sur les tâches répétitives et à faible valeur ajoutée. L’IA peut prendre en charge ces tâches qui nous semblent rébarbatives, et, dans ce cas, le taux d’acceptation est de l’ordre de 70 % des sondés. Le second domaine est celui du matching. Le matching, c’est quoi ? La mise en correspondance d’une offre avec une demande, avec un ratio d’adéquation plus ou moins élevé. Je viens avec une liste d’informations personnelles concernant mon profil, mes souhaits, et l’IA va me faire des suggestions de carrière ou de formation, par exemple. Dans notre étude, nous avons eu un retour mitigé sur ce type d’usage. Ce qui se joue, c’est le deal : est-ce que je suis prêt à me dévoiler davantage pour accéder plus rapidement à des suggestions qui me sembleraient pertinentes ? Nous ne sommes pas tous prêts à cela pour le moment. Troisième point : on laisse l’IA autonome, dans un certain périmètre, pour évaluer le niveau de performance d’un collaborateur ou pour prendre une décision RH importante. Et là, la majeure partie des personnes sondées expriment leur réticence et ne veulent pas être tributaires de l’IA dans un périmètre qui impacte directement les collaborateurs.

En quoi l’IA peut-elle permettre aux RH de se libérer de leurs tâches dites techniques pour se recentrer sur la dimension humaine du poste, voire pour réévaluer le périmètre RH ?

Nous évoluons dans un contexte où les candidats et les collaborateurs ne souhaitent plus seulement avoir un job, mais plutôt vivre une expérience professionnelle qui soit engageante, épanouissante, personnalisée.

De leur côté, les DRH n’ont jamais eu accès à autant d’informations personnelles, administratives, qualitatives liées à la performance, aux appétences, aux souhaits, à la rémunération des collaborateurs. Ces données sont malheureusement souvent disjointes et difficiles à réconcilier. L’enjeu est donc immense pour une direction RH qui, à effectifs constants, doit préserver l’équité, offrir cette flexibilité attendue par les collaborateurs, ou ce niveau de synthèse nécessaire aux managers pour prendre des décisions éclairées concernant leur équipe. On pourrait qualifier ce contexte de perfect storm pour l’IA. Si tant est qu’une organisation entreprenne les efforts suffisants pour normaliser ses référentiels de données RH, ce que l’on dénomme souvent le CoreHR (organisation, métiers, compétences, sites, hiérarchie, etc.), alors s’ouvre un champ immense d’usages de l’IA en soutien des RH, des managers et des employés. Les usages les plus évidents vont des suggestions de mise à jour des profils des collaborateurs à la détection de compétences, suggestions de formation ou de mentor. Du côté des managers, l’IA peut aider à accéder aux bonnes informations, consolidées lors d’étapes importantes, comme les promotions ou l’attribution d’augmentations salariales ou de bonus, afin de favoriser la rémunération de la performance, l’équité, l’inclusion, par exemple.

Du côté des RH, des usages comme l’automatisation ou l’accélération de la création des réponses aux demandes RH dans le centre de services partagés, l’accès à l’assistant digital pour consulter des compteurs de temps, de congés, ou la génération de reporting et des commentaires automatiques de ces reportings, ou encore l’analyse de textes (comme les raisons de départ des collaborateurs) sont autant d’outils qui améliorent la productivité et permettent de dégager du temps destiné à l’échange, à la stratégie et à la prise de décision.

Vous faites bien la différence entre « IA forte » et « IA faible »…

L’IA faible ne sait traiter que ce pour quoi elle a été conçue. L’IA forte est l’IA capable de s’adapter à des situations nouvelles, d’élaborer des solutions complexes. C’est l’IA telle que vous l’imaginez dans les films de science-fiction. C’est le fantasme absolu d’une machine qui se comporterait comme un être humain. L’IA forte n’en est qu’à ses balbutiements, notamment dans le domaine des jeux en ligne quand on affronte des « joueurs IA », mais aussi dans les robots ou les voitures autonomes, où de multiples sources d’information doivent être analysées dans des contextes renouvelés sans cesse. Ou encore dans des formes avancées de chat et de génération de texte, ChatGPT par exemple. Même si cette IA forte donne le sentiment d’approcher une forme de conscience, nous en sommes très loin, et il n’y a aucune IA forte qui concerne le domaine des RH aujourd’hui.

Qu’est-ce que l’IA peut apporter à l’expérience collaborateur ou à l’expérience candidat ?

Dans son rapport au collaborateur, devenant un client interne, le monde RH s’est de plus en plus inspiré des approches historiques du marketing. La notion de marketing RH est même assumée. La création du concept de marque employeur en est un autre exemple. L’employee experience s’impose, comme la customer experience (CX) avant elle. Les analogies sont évidentes. Les outils utilisés côté CX le sont côté RH désormais. Pour suivre l’analogie, et pour faire face à la pénurie de talents et à la difficulté à attirer les candidats, nous avançons désormais vers une notion de nurturing, qui consiste à « nourrir » le candidat, parfois encore passif, avec des informations ciblées qui vont l’aider à développer de l’intérêt pour l’entreprise. Ces approches RH sont en fait réalisées avec les mêmes outils que ceux utilisés en marketing pour alimenter des prospects qui deviendront de futurs clients et le vocabulaire peut être lui-même transposé : on parle de campagne, de pipe, de conversion, etc. L’IA, dans ce contexte, se révèle particulièrement utile et efficace pour automatiser la sélection et l’envoi des contenus vers les candidats, au bon moment pour eux.

Vous pouvez aussi imaginer que les outils qui permettent d’analyser les sentiments des consommateurs, qui scrutent leurs avis en texte libre, ceux utilisés par des marques pour cibler leurs acheteurs, par exemple, sont aujourd’hui utilisés dans le domaine RH pour exploiter les informations issues des entretiens annuels ou professionnels.

Les analogies entre les mondes RH et CX sont aussi visibles dans la gestion des compétences…

Pour la première fois dans les sondages, le sujet de l’identification des compétences est devenu la priorité #1 des RH, devant même la recherche de productivité et de performance. Or, depuis des années, la gestion prévisionnelle des emplois et des compétences se confrontent à l’obsolescence extrêmement rapide des référentiels de métiers et de compétences qui prennent des années à construire. Ce phénomène s’est accentué avec la réduction progressive de la durée de vie moyenne des compétences, aujourd’hui estimée à deux ans par l’OCDE. La plupart des projets de cartographie de compétences ont ainsi échoué face à l’ambition d’être exhaustif, ou lors des phases d’adoption et de déclaration des profils par de collaborateurs débordés par des listes infinies de compétences référencées. Cela crée un terrain de jeu intéressant pour l’IA, car elle répond à cet enjeu à deux niveaux : l’accélération de la création d’un référentiel de compétences et le matching. Chez Oracle, par exemple, nous avons compilé des millions d’enregistrements de données publiques, concernant des CV, des postes à pourvoir, des missions, des référentiels de compétences publiques et nous en avons déduit un référentiel de 130 000 compétences et de 16 000 postes déclinés en compétences requises. Sur cette base, le client peut personnaliser le référentiel pour l’adapter à sa culture propre, à ses métiers. Dans la seconde étape, le matching, on va consommer les contenus individuels des collaborateurs, des postes, des formations, et on va les faire correspondre avec les compétences identifiées. L’IA les soumet au collaborateur, et ce dernier décide s’il détient ou souhaite développer cette compétence, et déclare éventuellement son niveau. Cette approche permet d’obtenir le meilleur compromis entre la préservation de la culture de l’entreprise, la capacité du collaborateur à garder la main sur ce qu’il déclare, tout en bénéficiant de l’accélération et de l’évolutivité du référentiel offerte par l’IA.

Quelle place l’IA occupe-t-elle dans le domaine de la formation ?

La connexion que l’on peut faire avec le sujet des compétences, la mobilité et l’évolution de poste, là où l’IA peut vraiment apporter de l’aide, c’est tout ce travail de matching, de mise en relation d’un besoin reconnu et exprimé avec une ressource disponible, qu’elle soit matérielle ou autre. Dans la formation, l’une des grandes difficultés que l’on peut avoir côté RH, c’est de mettre à disposition des collaborateurs l’ensemble des formations du catalogue dans un format accessible. L’IA peut justement suggérer, parmi des milliers de sessions, de contenus, la dizaine de modules les plus pertinents par rapport à des objectifs de développement exprimés, et ce, même si l’information a été saisie en dehors du module formation, durant l’entretien de performance par exemple. L’IA peut aussi être utilisée pour analyser la progression d’un collaborateur dans l’assimilation de certaines connaissances afin de cadencer les bons contenus.

Pour reprendre l’exemple du marketing, il y a ce moment assez agaçant, où vous consultez en ligne votre magazine préféré et où surgit une suggestion d’achat qui correspond à une recherche effectuée quelques minutes plus tôt… C’est ce qui pourrait être irritant dans l’IA…

Cette notion d’« explicabilité », de lisibilité pour l’être humain de la raison pour laquelle l’IA me fait telle suggestion est capitale. Ainsi lorsqu’on suggère une compétence dans le profil d’un collaborateur, on indique en sous-titre : « parce que les collaborateurs ayant le même profil que vous déclarent cette compétence » ou « parce que vous avez actuellement tel poste »… Ces explications facilitent l’acceptation et ramènent l’IA à sa force de calcul et de synthèse des multiples sources de données, en limitant l’irritation liée au sentiment de perte de contrôle.

Quels sont les travers que l’on peut imaginer ?

C’est clairement le côté normatif de l’IA, car elle fonctionne bien pour identifier des archétypes puis proposer des suggestions à un profil en fonction de son niveau de correspondance avec un archétype. Cela peut avoir un effet normatif en poussant des profils très divers vers des contenus devenus normés ou stéréotypés. L’IA vous ramènera souvent sur le chemin le plus emprunté. Or la richesse humaine, c’est aussi sa diversité, son originalité, sa créativité face des situations nouvelles. Pousser les collaborateurs vers des profils normés serait prendre le risque de vulgariser un mode de pensée convenu. Or l’IA n’est pas très efficace pour gérer des approches hétérogènes ou des profils atypiques.

Il faut donc être vigilant pour continuer à promouvoir les parcours atypiques, les croisements de compétences et d’expériences, l’esprit critique, et notre capacité à sortir des sentiers battus…

Quelles sont les applications avant-gardistes de l’IA appliquée aux RH ?

Les champs d’utilisation sont innovants dans la partie reconnaissance faciale, analyse des comportements, de l’état émotionnel, ou encore dans l’analyse automatique du niveau de langue des collaborateurs. J’imagine qu’à l’avenir ce qui se développera aussi ce sont les assistants digitaux, un peu plus experts que les chabots, qui ont des possibilités limitées. Vous pourrez probablement leur demander une multitude d’actions. Chaque collaborateur pourrait avoir son assistant pour écrire un e-mail, obtenir une information, réaliser une recherche, une analyse. Suivons de près les usages émergents autour de ChatGPT, la fameuse application de chat boostée à l’IA, ils seront certainement précurseurs de ce que nous verrons en entreprise.

Certains usages de l’IA sont prometteurs mais sont-ils tous souhaitables ?

L’IA augmente le potentiel des organisations humaines et leur vitesse d’exécution, de développement, de collaboration. Ses capacités et ses usages s’accroissent jour après jour. Mais l’IA nous met aussi devant nos responsabilités quant aux risques de dérive sur le plan éthique et moral. Il est donc de notre responsabilité collective d’établir un cadre réglementaire qui conditionne les usages, définisse les limites et les droits, avant que nous ne tombions dans une escalade portée par la seule recherche d’efficacité ou de compétitivité.

Ce n’est pas une tâche aisée, mais c’est le grand enjeu des organisations humaines du début du XXIe siècle.

L’IA à la Une de People At Work #8 : au sommaire ?

Intelligence Providentielle ?

IA : atout ou danger pour l’Expérience Collaborateur ?

C’est avec cette question que la rédaction de People at Work a entamé ses travaux pour ce numéro, il y a quelques semaines. À ce moment-là est intervenu le raz-de-marée ChatGPT. Et comme tout le monde, nous l’avons testé. À la question qui nous occupait, sa réponse :

« Cela dépend de la façon dont elle est utilisée et de la manière dont elle est intégrée dans l’environnement de travail. L’utilisation de l’IA peut aider les employés à se concentrer sur des tâches à plus haute valeur ajoutée. Par exemple, l’utilisation des chatbots peut leur permettre de répondre aux demandes des clients, ce qui peut améliorer la satisfaction des clients et la motivation des employés. Cependant, il est important de veiller à ce que l’utilisation de l’IA ne se fasse pas au détriment de l’emploi et de la QVT. Si elle est mal utilisée, l’intelligence artificielle peut entraîner la suppression de certains emplois et une augmentation de la pression sur les employés qui restent. Il est donc important de mettre en place des mesures pour gérer l’intégration de l’intelligence artificielle de manière équitable et responsable. »

Tout est dit.
À nos lecteurs de décider s’ils feraient la différence entre un éditorial « signé de la patte d’un vrai journaliste » ou un texte « tout droit sorti d’un ordinateur », comme disait l’un de mes anciens patrons de presse.

Anne-Cécile Huprelle,
Rédactrice en chef de People At Work

main robot

Au sommaire de People At Work #8 – IA, tout va bien se penser

Dans le dossier spécial IA

UN GRAND ENTRETIEN : Benoît Coquart, DG du Groupe Legrand

UN VISIONNAIRE :  Cédric Villani

UN EXPERT : Sylvain Letourmy, directeur stratégie applications chez Oracle

 

DES FOCUS :

-MANAGEMENT : Premiers pas avec l’IA, par Myriam Faivre, PDG de la Coopérative d’entrepreneurs CAE CLARA et CLARAbis

-MÉTIERS BOULEVERSÉS : focus en entreprise avec Agnès Duroni, fondatrice d’Adevea et spécialiste du futur du travail, et dans l’industrie avec Xavier Brucker, spécialiste de l’IA dans l’industrie, et Jean-Baptiste Latour, philosophe d’entreprise

BCG X : à l’assaut des transformations digitales

-La transition numérique de Sanofi

-Le leadership génératif selon Fanny Potier-Koninckx Partner & Director, Boston Consulting Group

EDF : une IA pour améliorer l’expérience candidat

-Tribune : comment j’utilise ChatGPT dans mon recrutement ? Par Dan Guez, président du cabinet de recrutement opensourcing.com

-Legislation et IA : que dit la loi en 2023 ? Avec Aida Ponce Del Castillo, avocate

-IA et éthique :  avec Laetitia Orsini Sharps, directrice grand public d’Orange France et présidente de POSITIVE IA

-L’OEIL DE : Luc Ferry, « l’IA forte est une utopie, un pur fantasme ».

 

& aussi

DE LA PROSPECTIVE : Les promesses organisationnelles de l’IA

DES CAS D’ENTREPRISES GREAT PLACE TO WORK

EXPERTISE : La RSE Version BUT

UN DÉBAT : Manager, un poste en désamour ?

 

LA BOITE À OUTILS d’Ilona Boniwell

ENVIRONNEMENTS : le bureau totem

PORTRAIT : Michel Haas, le DRH Pèlerin

Acheter et s’abonner à « People at Work »

People At Work #8, le nouveau numéro spécial IA
14,90€ sur monmag.fr

Couverture du magazine People At Work n°8, robot intelligence artificielle

 

La femme est l’avenir de la tech

Les chiffres parlent d’eux-mêmes : sur les 87 métiers qui composent la nomenclature des familles professionnelles, 51 sont peu ou très peu féminisés et 8 seulement font état d’une relative parité hommes-femmes. Une vingtaine d’entre eux présentent même un déséquilibre flagrant, avec moins de 10 % de femmes ou d’hommes. Des données publiées par l’Insee à l’été 2020 qui démontrent que les disparités hommes-femmes sur le type et les secteurs d’emploi sont bien une réalité.

Certes, la part des femmes ne cesse d’augmenter sur le marché du travail depuis les années 1960. Mais la ségrégation professionnelle sexuée, en France comme ailleurs, n’est pas un mythe. Une femme sur quatre devrait ainsi échanger sa profession avec un homme pour parvenir à une distribution équilibrée de chaque sexe dans les différents métiers[1]. Pour l’heure, on les retrouve majoritairement dans le secteur tertiaire – administration, santé, social, services à la personne… – quand les hommes s’imposent dans les professions faisant appel à la « force » et à la « technicité », des attributs relevant idéologiquement de la virilité – bâtiment, industrie, ingénierie, agriculture, transport… Et les métiers du numérique, où seules 16 % des femmes occupent des postes à valeur ajoutée, pour une représentation globale de 27,9 %[2].

Pourtant pionnières dans le domaine…

C’est notamment à une certaine Ada Lovelace, mathématicienne, informaticienne et ingénieure britannique, que l’on doit les travaux sur lesquels s’appuie l’invention du code. À l’autrichienne Hedy Lamarr, les bases de la technologie Wifi. Quand l’Américaine Joyce Weisbecker s’est imposée comme la première développeuse indépendante de l’histoire du jeu vidéo. Les femmes étaient donc bien au rendez-vous de cet envol digital qu’ont pris nos sociétés, même si, comme l’avance la chercheuse en microbiologie Flora Vincent, « la majorité faisait surtout office de petites mains et était mal payée ». Il n’empêche que, de 1972 à 1985, la filière informatique était la deuxième à compter le plus de femmes ingénieures au sein des formations techniques (+ de 30 %). Les années 1980 marquant un tournant décisif, avec l’apparition dans les foyers du micro-ordinateur, considéré comme un gadget masculin, et scellant dans le monde professionnel « le moment où les femmes se sont fait évincer, comme à chaque fois que l’on découvre une poule aux œufs d’or. Le côté prestigieux du geek revenant aux hommes ». Un pan de l’histoire que la scientifique met au jour dans l’ouvrage L’Intelligence artificielle, pas sans elles !, coécrit avec la chercheuse en génétique Aude Bernheim, pour le compte du Laboratoire de l’égalité[3]. Tout comme le fait la professeure à la faculté des Sciences de l’éducation de l’Université de Genève, Isabelle Collet, dans Les Oubliées du numérique[4], un essai au travers duquel l’informaticienne de formation tente de répondre à la question de savoir pourquoi le numérique est massivement dominé par les hommes, la part des femmes dans le secteur n’ayant cessé de diminuer depuis les années 1980.

Un monde d’hommes

Isabelle Collet y voit deux raisons. Elle avance ce phénomène sociétal qui veut que « lorsqu’un domaine prend de l’importance dans le monde économique et social, il se masculinise », dénonçant par ailleurs la notion de genre et les stéréotypes qui y sont rattachés. Lesquels engendrent la désertification féminine dans les filières. « L’idée répandue est que le numérique est un monde d’hommes. À quelques exceptions, il est normal que les filles n’aient pas envie de s’engager dans ces cursus où elles se retrouvent en minorité, où il sera difficile pour elles de faire valoir leur légitimité. Sans compter la culture sexiste qui y est tolérée. » Pour l’auteure, « il faut que les institutions veuillent réellement la mixité, que les écoles montrent aux filles qu’elles sont attendues dans ces formations ». C’est ce que s’attellent à démontrer les écoles du genre, à l’instar de Simplon ou de 42, à la pointe de cette question. « À 42, nous avons défini un plan d’actions avec 35 mesures concrètes pour sensibiliser les collégiennes, les lycéennes, les étudiantes, les femmes en recherche d’emploi ou en reconversion professionnelle. Ces initiatives commencent à porter leurs fruits : de 7 % d’étudiantes en 2017, nous sommes passés à 26 % en 2020 et à 46 % de femmes aux dernières sélections. Nous espérons atteindre la parité d’ici à 2022 », avance Sophie Vigier, directrice générale de 42 et de son réseau international 42 Network.

Éviter le syndrome de l’airbag

L’important étant « de montrer concrètement aux femmes, loin des clichés, ce qu’est la tech, que la division sexuée des savoirs n’existe pas ». Et Sophie Vigier cite pour preuve une étude conduite par l’Université Carnegie Mellon, à Pittsburg, mettant au jour que « les cerveaux des enfants fonctionnent de la même manière, quel que soit leur sexe ». Ou, pour le dire autrement, que les sciences comme le numérique ne sont pas une affaire de genre. Mais, selon Flora Vincent, « l’intelligence artificielle est encore trop souvent associée à un côté technique. Pour qu’elle se féminise, il est important de la présenter comme un moyen et non comme une fin en soi : elle permet de mieux soigner, d’éduquer, de gérer les ressources énergétiques… Autant de domaines plébiscités par les femmes ». D’autant que l’absence de celles-ci dans le secteur n’est pas sans conséquences sur nos sociétés, qui reposent, de fait, sur des algorithmes sexistes biaisés. C’est ce que dénoncent les recherches avancées dans L’Intelligence artificielle, pas sans elles !, faisant valoir que ce manque de mixité dans les algorithmes, « mis au point par des hommes blancs issus d’un milieu social favorisé », engendre des données à l’image de ceux qui les ont conçus, donc non représentatives de l’ensemble de la population. La directrice de l’école 42 citant, parmi de nombreux exemples, « le “syndrome de l’airbag”, dont les premiers modèles conçus pour des hommes de 1,80 m ne protégeaient pas les femmes »[5]. L’IA étant vouée à prendre une place prépondérante dans nos vies, il est donc crucial que le « code mâle » ne soit plus la norme pour refléter des sociétés plus égalitaires. « Une tech mixte et inclusive est nécessaire si nous voulons faire face aux défis de demain. Se priver des femmes, c’est se priver de 50 % de talents potentiels et d’un moteur de croissance crucial alors que la tech européenne manque de 700 000 profils », conclut Sophie Vigier.

[1] Selon un document édité par la Direction de l’animation de la recherche, des études et des statistiques du ministère du Travail, de l’Emploi et de l’Insertion en juillet 2019.

[2] Selon le libre blanc édité par Syntec Numérique et Social Builder pour soutenir la reconversion des femmes dans le numérique.

[3] L’Intelligence artificielle, pas sans elles !, d’Aude Bernheim et Flora Vincent, collection « Égale à égal », Belin Éditeur, 2019.

[4] Les Oubliées du numérique, d’Isabelle Collet, Le Passeur Éditeur, 2019.

[5] Dans son ouvrage,  Invisible Women, Exposing Data Bias in a World Designed for Men (2019), la journaliste britannique Caroline Criado-Perez évoquait cette invisibilisation des femmes dans les dispositifs de sécurité des voitures. Selon les données de l’auteure, les femmes avaient 47% de risques supplémentaires d’être sérieusement blessées en cas d’accident. Ce n’est qu’en 2011 que les Etats-Unis ont introduit des mannequins féminins dans les tests de collision. Mais des lacunes persistent : les femmes ne sont souvent pas positionnées de la même manière en raison de leur taille en moyenne plus petite. Caroline Criado-Perez explique : «C’est juste un mannequin masculin réduit. […] Mais les femmes ne sont pas des hommes réduits. Nous avons une distribution de masse musculaire différente. Nous avons une densité osseuse inférieure. Il existe des différences dans l’espacement des vertèbres. Même notre corps est différent. Et ces différences sont toutes cruciales en ce qui concerne le taux de blessures dans les accidents de la route.»