Pourquoi l’intelligence humaine est-elle battue par l’IA ?

On met beaucoup de choses derrière le mot « intelligence » (apanage de l’être humain) : aurait-on mieux fait de nommer l’intelligence « artificielle » autrement, pour éviter de créer une confrontation homme-machine ? Cette querelle de mots n’a de sens que si on a d’abord bien compris qu’on parle de trois sortes d’IA. Il y a d’abord l’IA qu’on dit […]

Vous devez être abonné à People at Work pour continuer de lire cet article.
Découvrez nos offres d'abonnements

Déjà abonné ? Connectez vous :

Allier IA et éthique, mission impossible ?

 

« Nous nous sommes rendu compte que les entreprises avaient aujourd’hui besoin d’accompagnement et de solutions pour progresser et rendre visible la mise en œuvre d’une IA responsable au sein de leur organisation », déclare Lætitia Orsini Sharps, directrice grand public d’Orange France et présidente de Positive AI, une association créée en 2022 par Orange France, L’Oréal, Malakoff Humanis et BCG Gamma. « L’IA responsable, c’est pour le bénéfice de l’humain et c’est contrôlé par l’humain », poursuit-elle. Il est extrêmement important que les entreprises soient capables de montrer que ce progrès technologique est bien au service de la société. »

L’une des principales missions de Positive AI est « d’offrir aux entreprises un espace d’échange, de dialogue et de partage sur les bonnes pratiques pour réfléchir ensemble aux interrogations qui sont essentielles et faire progresser ce sujet d’une IA éthique et responsable », précise sa présidente. Lætitia Orsini Sharps lance aussi un appel aux dirigeants pour qu’ils s’intéressent à ces problématiques, qui ne devraient pas, selon elle, concerner les seuls data scientists : « Ce sont des sujets dont les dirigeants doivent s’emparer. Ils doivent comprendre tout le potentiel de cette IA, et en même temps toutes les règles et la gouvernance qu’il faut mettre en place pour que ces outils restent pilotés par l’humain et soient au service de l’humain. Des positions doivent être prises et elles doivent être très fortes. »

 

Un label certifiant la gouvernance et les systèmes d’une IA éthique

Pour apporter des solutions concrètes permettant aux organisations de rendre opérationnelles ces bonnes pratiques, Positive AI est en train de finaliser la mise en place du premier label d’IA éthique en France. « Ce label permettra aux entreprises de vérifier leur niveau de maturité sur l’IA responsable », explique la dirigeante. À travers un référentiel établi par les équipes de data scientists et de chefs de projet des quatre entreprises fondatrices de l’association, et suivant les principales recommandations émises par la Commission européenne, ce label sera construit autour de deux piliers : la gouvernance de l’organisation et les systèmes d’IA eux-mêmes.

Une partie de ces systèmes, « ceux qui seront identifiés comme présentant le plus de risques », seront examinés en profondeur par les auditeurs. Les organisations devront aussi fournir des éléments prouvant leurs bonnes pratiques en matière de contrôle par l’humain de ces systèmes, par exemple, la protection de certaines populations. « En auditant aussi la gouvernance, on peut revenir sur ce qui a été audité. Cela va garantir qu’au sein de l’entreprise on ait un système global vertueux. »

La note finale donnant droit à la labellisation Positive AI, valable deux ans, permettra à l’organisation de savoir auquel des trois niveaux prévus par le référentiel correspond la maturité de son IA. Ce point est très important, selon la présidente, puisque le label doit être « accessible à l’ensemble des entreprises » : « On est vraiment dans une logique de progression et d’apprentissage en commun. » Les organisations fondatrices de l’association seront les premières à passer l’épreuve de la certification, et le label sera ensuite ouvert aux entreprises extérieures dans le courant du deuxième trimestre 2023.

 

Mobiliser en interne et contribuer au débat public

Ainsi, les organisations de toute taille et de tout secteur pourront adhérer à Positive AI et candidater au label. « On a posé ce socle, mais il est au service de l’ensemble des entreprises, donc, plus nous serons nombreux, plus ce sera riche. C’est l’abondance de regards croisés, d’approches différentes, avec diverses modalités de mise en œuvre, qui fera la richesse de la démarche », indique Lætitia Orsini Sharps. En interne, une IA responsable est également importante « pour attirer et retenir les collaborateurs, poursuit-elle. Les data experts cherchent du sens dans ce qu’ils font, dans leur parcours professionnel, et veulent s’impliquer dans des organisations qui partagent leurs préoccupations en matière d’éthique ».

Une autre ambition de Positive AI est de participer activement aux discussions sur la constitution de normes, tant au niveau français qu’à l’échelle européenne : « Notre objectif est aussi de contribuer au débat public sur la régulation et les perspectives de l’IA, en se rapprochant d’acteurs publics et privés, en France et à l’étranger, pour mettre en commun cette approche. Cela nous semble important d’avoir une vision européenne de cette IA responsable. Nous contribuerons au débat en soutenant la position concrète et pragmatique d’entreprises qui font l’IA et qui l’utilisent. »

IA : que dit la loi en 2023 ?

Les récentes avancées en matière d'intelligence artificielle (IA) représentent « une grave menace pour les droits humains » (alerte du 18 février par le Haut-Commissaire des Nations unies aux droits de l'Homme). L’inquiétude de l’ONT est-elle justifiée ? L’inquiétude est élevée car la réglementation n’est pas encore claire en termes de classification des risques et de mise en […]

Vous devez être abonné à People at Work pour continuer de lire cet article.
Découvrez nos offres d'abonnements

Déjà abonné ? Connectez vous :

Témoignage : comment j’utilise ChatGPT pour optimiser mon recrutement

    Alors comment un service recrutement peut-il utiliser ChatGPT ? L’idée est de tirer parti cette révolution sans trop bouleverser les processus. La première application consiste à générer des descriptifs de postes attractifs pour les offres d’emploi ou des fiches de postes internes. Il faut tout d’abord fournir à ChatGPT les informations clés sur les […]

Vous devez être abonné à People at Work pour continuer de lire cet article.
Découvrez nos offres d'abonnements

Déjà abonné ? Connectez vous :

EDF Recrute : un IA pour améliorer l’expérience candidat

 « On a un flux gigantesque, et on en est très ravis. Notre site fait partie des plus utilisés en France, et c’est vraiment une grande fierté pour nous », déclare Charles Montorio, responsable du pôle mobilité et recrutement du groupe EDF. Le premier producteur et fournisseur d’électricité en France, fort de 135 000 collaborateurs en Europe et […]

Vous devez être abonné à People at Work pour continuer de lire cet article.
Découvrez nos offres d'abonnements

Déjà abonné ? Connectez vous :

La transition numérique de Sanofi

Quelles sont vos missions au sein du groupe Sanofi ? Avec mes équipes, nous travaillons pour améliorer l’expérience sur les outils digitaux. Et ce durant tout le parcours du collaborateur dans l’entreprise, de son intégration en passant par son développement et ses évolutions de carrière. La vocation de Sanofi est de poursuivre les miracles de la […]

Vous devez être abonné à People at Work pour continuer de lire cet article.
Découvrez nos offres d'abonnements

Déjà abonné ? Connectez vous :

BCG X : les enjeux de la transfo digitale

Pour Camille Brégé, l’équilibre entre l’angle tech et l’angle business se révèle essentiel pour la réussite d’une transformation digitale : « Le plus difficile, quand on crée un actif digital, ce n’est pas la partie technique, mais la partie business process qui va avec, et qui comprend par exemple l’acculturation des collaborateurs. La question de l’accompagnement est donc centrale. La règle d’or en la matière est 10/20/70 : 10 % des efforts résident dans la construction de l’algorithme, 20 % dans son implémentation dans les systèmes d’information existants, et 70 % dans l’intégration dans les modes de travail des équipes au quotidien. Ces 70 % constituent la clé de la dimension humaine de l’IA et elle est la plus importante. Elle ne doit surtout pas être sous-estimée. C’est la raison pour laquelle nous travaillons avec nos clients sur les questions de gestion du changement et de la formation. »

 

Un modèle collaboratif pour impliquer l’ensemble des utilisateurs

BCG X travaille sur la base d’un modèle collaboratif, qui mobilise un grand nombre de parties prenantes, des membres de la direction aux collaborateurs en passant par les équipes techniques et les managers. « Il faut que les interlocuteurs business, les représentants du comité exécutif et les utilisateurs soient impliqués. Sinon on risque de construire quelque chose hors-sol », explique Camille Brégé. Le soutien des équipes dirigeantes est aussi essentiel : « Sans support affirmé de la part de la direction, les transformations échouent. »

Convaincre les collaborateurs, parfois dubitatifs, de l’impact positif de l’IA fait également partie de l’accompagnement proposé par BCG X : « Nous pensons que l’IA apporte de la valeur si elle est combinée à l’humain. Il convient de composer avec des algorithmes, des intuitions business et de la stratégie. »

En plus d’apporter « une plus grande confiance dans les décisions prises parce qu’elles sont sous-tendues par des simulations et par de la donnée transparente », l’IA a pour atout, par son caractère transverse, d’améliorer l’expérience collaborateur : « La data et le digital aident à casser les silos, ce qui permet au collaborateur de prendre du recul et d’avoir une meilleure compréhension des enjeux auxquels l’entreprise est confrontée, et donc de se dire qu’il peut contribuer à les résoudre. Si on l’appréhende de la bonne manière, l’IA permet d’apporter plus de sens. »

RH : un terrain de jeu pour l’IA

Des fantasmes entourent l’intelligence artificielle. Le concept est très clivant : comment l’expliquez-vous ?

En fait, il faut se poser les bonnes questions : pourquoi l’IA se développe-t-elle aussi vite dans nos organisations ? L’une des raisons en est tout simplement qu’elle nous aide à dompter la complexité de notre environnement et qu’elle nous permet de nous adapter collectivement à un monde qui se transforme de plus en plus vite.

L’IA est à la croisée de multiples chemins : la reconnaissance de textes, de la voix, des visages, des émotions ; la capacité à extrapoler des données et d’en déduire des cheminements, d’être prédictifs sur certains domaines et, plus récemment encore de générer des textes, des images, des contenus. Forcément, quand on parle d’IA, il y a une myriade de possibles, et, forcément, dans l’imaginaire, cela ne se matérialise pas de la même façon. Dans ce domaine, chacun est tenté d’expérimenter des choses. La détection, par exemple dans les espaces publics, est l’un usage qui peut être assez effrayant et dont les dérives sont évidentes. Il est nécessaire cependant de distinguer la réalité du fantasme et, dans le domaine du réel, de porter toute notre attention sur ce qui est souhaitable, et pas seulement sur ce qui est possible. Entre les deux, il y a le cadre éthique, la réglementation et les limites managériales que l’on se fixe.

 

Ces limites restant floues, la « peur de perdre le contrôle » est donc bien légitime…

L’IA, déjà, c’est un algorithme ou un modèle mathématique conçu pour imiter la façon dont les humains pensent et résolvent des problèmes. Cet algorithme est entraîné sur la base de millions d’enregistrements de données pour produire les prédictions le plus précises possible. Plus on le « nourrit », plus on le « corrige », plus il apprend et devient conforme et précis. Donc ce n’est pas figé, c’est un produit qui, lui-même, est évolutif.

Il y a déjà une première inquiétude : qui va nourrir cet algorithme ? Ces données seront-elles le reflet de ce que l’on souhaite ou de ce que l’on a fait dans le passé ? Je vous donne un exemple concret : dans une entreprise où des cadres masculins étaient davantage recrutés que des femmes, si on alimente l’algorithme de l’IA avec ce type d’historique, celle-ci va considérer que le critère « être un homme » est plus favorable pour obtenir la position de manager. Le premier biais de l’IA est donc directement lié à l’historique des données. Deuxième réticence : une fois que cette IA s’est formée, elle produit des réponses, mais le raisonnement concernant celles-ci n’est pas analysable ni explicable. Cet effet black box a pendant très longtemps été l’un des freins majeurs, car la réponse était produite avec un taux de fiabilité, certes très bon, mais sans que l’on puisse dire pourquoi il l’était et selon quel critère. La troisième réticence est liée à l’impact que l’IA pourrait avoir sur notre travail, sur notre place d’être humain, sur notre collaboration possible dans un monde où elle travaillerait à nos côtés. C’est clairement la peur d’être cannibalisé par ce type de solutions, d’observer des dérives éthiques ou morales qui risqueraient de porter atteinte au socle de confiance que nous développons entre êtres humains.

Chez Oracle, nous avons réalisé une étude, avec Odoxa, pour discerner les usages acceptés ou non dans le domaine des RH. Nous avons détecté trois catégories d’usage de l’IA : dans le premier cas, ceux qui apportent une forme d’augmentation des capacités humaines sur les tâches répétitives et à faible valeur ajoutée. L’IA peut prendre en charge ces tâches qui nous semblent rébarbatives, et, dans ce cas, le taux d’acceptation est de l’ordre de 70 % des sondés. Le second domaine est celui du matching. Le matching, c’est quoi ? La mise en correspondance d’une offre avec une demande, avec un ratio d’adéquation plus ou moins élevé. Je viens avec une liste d’informations personnelles concernant mon profil, mes souhaits, et l’IA va me faire des suggestions de carrière ou de formation, par exemple. Dans notre étude, nous avons eu un retour mitigé sur ce type d’usage. Ce qui se joue, c’est le deal : est-ce que je suis prêt à me dévoiler davantage pour accéder plus rapidement à des suggestions qui me sembleraient pertinentes ? Nous ne sommes pas tous prêts à cela pour le moment. Troisième point : on laisse l’IA autonome, dans un certain périmètre, pour évaluer le niveau de performance d’un collaborateur ou pour prendre une décision RH importante. Et là, la majeure partie des personnes sondées expriment leur réticence et ne veulent pas être tributaires de l’IA dans un périmètre qui impacte directement les collaborateurs.

 

 

En quoi l’IA peut-elle permettre aux RH de se libérer de leurs tâches dites techniques pour se recentrer sur la dimension humaine du poste, voire pour réévaluer le périmètre RH ?

Nous évoluons dans un contexte où les candidats et les collaborateurs ne souhaitent plus seulement avoir un job, mais plutôt vivre une expérience professionnelle qui soit engageante, épanouissante, personnalisée.
De leur côté, les DRH n’ont jamais eu accès à autant d’informations personnelles, administratives, qualitatives liées à la performance, aux appétences, aux souhaits, à la rémunération des collaborateurs. Ces données sont malheureusement souvent disjointes et difficiles à réconcilier. L’enjeu est donc immense pour une direction RH qui, à effectifs constants, doit préserver l’équité, offrir cette flexibilité attendue par les collaborateurs, ou ce niveau de synthèse nécessaire aux managers pour prendre des décisions éclairées concernant leur équipe. On pourrait qualifier ce contexte de perfect storm pour l’IA. Si tant est qu’une organisation entreprenne les efforts suffisants pour normaliser ses référentiels de données RH, ce que l’on dénomme souvent le CoreHR (organisation, métiers, compétences, sites, hiérarchie, etc.), alors s’ouvre un champ immense d’usages de l’IA en soutien des RH, des managers et des employés. Les usages les plus évidents vont des suggestions de mise à jour des profils des collaborateurs à la détection de compétences, suggestions de formation ou de mentor. Du côté des managers, l’IA peut aider à accéder aux bonnes informations, consolidées lors d’étapes importantes, comme les promotions ou l’attribution d’augmentations salariales ou de bonus, afin de favoriser la rémunération de la performance, l’équité, l’inclusion, par exemple.

Du côté des RH, des usages comme l’automatisation ou l’accélération de la création des réponses aux demandes RH dans le centre de services partagés, l’accès à l’assistant digital pour consulter des compteurs de temps, de congés, ou la génération de reporting et des commentaires automatiques de ces reportings, ou encore l’analyse de textes (comme les raisons de départ des collaborateurs) sont autant d’outils qui améliorent la productivité et permettent de dégager du temps destiné à l’échange, à la stratégie et à la prise de décision.

 

 

Vous faites bien la différence entre « IA forte » et « IA faible »…

L’IA faible ne sait traiter que ce pour quoi elle a été conçue. L’IA forte est l’IA capable de s’adapter à des situations nouvelles, d’élaborer des solutions complexes. C’est l’IA telle que vous l’imaginez dans les films de science-fiction. C’est le fantasme absolu d’une machine qui se comporterait comme un être humain. L’IA forte n’en est qu’à ses balbutiements, notamment dans le domaine des jeux en ligne quand on affronte des « joueurs IA », mais aussi dans les robots ou les voitures autonomes, où de multiples sources d’information doivent être analysées dans des contextes renouvelés sans cesse. Ou encore dans des formes avancées de chat et de génération de texte, ChatGPT par exemple. Même si cette IA forte donne le sentiment d’approcher une forme de conscience, nous en sommes très loin, et il n’y a aucune IA forte qui concerne le domaine des RH aujourd’hui.

 

 

 

Qu’est-ce que l’IA peut apporter à l’expérience collaborateur ou à l’expérience candidat ?

Dans son rapport au collaborateur, devenant un client interne, le monde RH s’est de plus en plus inspiré des approches historiques du marketing. La notion de marketing RH est même assumée. La création du concept de marque employeur en est un autre exemple. L’employee experience s’impose, comme la customer experience (CX) avant elle. Les analogies sont évidentes. Les outils utilisés côté CX le sont côté RH désormais. Pour suivre l’analogie, et pour faire face à la pénurie de talents et à la difficulté à attirer les candidats, nous avançons désormais vers une notion de nurturing, qui consiste à « nourrir » le candidat, parfois encore passif, avec des informations ciblées qui vont l’aider à développer de l’intérêt pour l’entreprise. Ces approches RH sont en fait réalisées avec les mêmes outils que ceux utilisés en marketing pour alimenter des prospects qui deviendront de futurs clients et le vocabulaire peut être lui-même transposé : on parle de campagne, de pipe, de conversion, etc. L’IA, dans ce contexte, se révèle particulièrement utile et efficace pour automatiser la sélection et l’envoi des contenus vers les candidats, au bon moment pour eux.

Vous pouvez aussi imaginer que les outils qui permettent d’analyser les sentiments des consommateurs, qui scrutent leurs avis en texte libre, ceux utilisés par des marques pour cibler leurs acheteurs, par exemple, sont aujourd’hui utilisés dans le domaine RH pour exploiter les informations issues des entretiens annuels ou professionnels.

 

Les analogies entre les mondes RH et CX sont aussi visibles dans la gestion des compétences…

Pour la première fois dans les sondages, le sujet de l’identification des compétences est devenu la priorité #1 des RH, devant même la recherche de productivité et de performance. Or, depuis des années, la gestion prévisionnelle des emplois et des compétences se confrontent à l’obsolescence extrêmement rapide des référentiels de métiers et de compétences qui prennent des années à construire. Ce phénomène s’est accentué avec la réduction progressive de la durée de vie moyenne des compétences, aujourd’hui estimée à deux ans par l’OCDE. La plupart des projets de cartographie de compétences ont ainsi échoué face à l’ambition d’être exhaustif, ou lors des phases d’adoption et de déclaration des profils par de collaborateurs débordés par des listes infinies de compétences référencées. Cela crée un terrain de jeu intéressant pour l’IA, car elle répond à cet enjeu à deux niveaux : l’accélération de la création d’un référentiel de compétences et le matching. Chez Oracle, par exemple, nous avons compilé des millions d’enregistrements de données publiques, concernant des CV, des postes à pourvoir, des missions, des référentiels de compétences publiques et nous en avons déduit un référentiel de 130 000 compétences et de 16 000 postes déclinés en compétences requises. Sur cette base, le client peut personnaliser le référentiel pour l’adapter à sa culture propre, à ses métiers. Dans la seconde étape, le matching, on va consommer les contenus individuels des collaborateurs, des postes, des formations, et on va les faire correspondre avec les compétences identifiées. L’IA les soumet au collaborateur, et ce dernier décide s’il détient ou souhaite développer cette compétence, et déclare éventuellement son niveau. Cette approche permet d’obtenir le meilleur compromis entre la préservation de la culture de l’entreprise, la capacité du collaborateur à garder la main sur ce qu’il déclare, tout en bénéficiant de l’accélération et de l’évolutivité du référentiel offerte par l’IA.

 

Quelle place l’IA occupe-t-elle dans le domaine de la formation ?

La connexion que l’on peut faire avec le sujet des compétences, la mobilité et l’évolution de poste, là où l’IA peut vraiment apporter de l’aide, c’est tout ce travail de matching, de mise en relation d’un besoin reconnu et exprimé avec une ressource disponible, qu’elle soit matérielle ou autre. Dans la formation, l’une des grandes difficultés que l’on peut avoir côté RH, c’est de mettre à disposition des collaborateurs l’ensemble des formations du catalogue dans un format accessible. L’IA peut justement suggérer, parmi des milliers de sessions, de contenus, la dizaine de modules les plus pertinents par rapport à des objectifs de développement exprimés, et ce, même si l’information a été saisie en dehors du module formation, durant l’entretien de performance par exemple. L’IA peut aussi être utilisée pour analyser la progression d’un collaborateur dans l’assimilation de certaines connaissances afin de cadencer les bons contenus.

 

Pour reprendre l’exemple du marketing, il y a ce moment assez agaçant, où vous consultez en ligne votre magazine préféré et où surgit une suggestion d’achat qui correspond à une recherche effectuée quelques minutes plus tôt… C’est ce qui pourrait être irritant dans l’IA…

Cette notion d’« explicabilité », de lisibilité pour l’être humain de la raison pour laquelle l’IA me fait telle suggestion est capitale. Ainsi lorsqu’on suggère une compétence dans le profil d’un collaborateur, on indique en sous-titre : « parce que les collaborateurs ayant le même profil que vous déclarent cette compétence » ou « parce que vous avez actuellement tel poste »… Ces explications facilitent l’acceptation et ramènent l’IA à sa force de calcul et de synthèse des multiples sources de données, en limitant l’irritation liée au sentiment de perte de contrôle.

 

 

Quels sont les travers que l’on peut imaginer ?

C’est clairement le côté normatif de l’IA, car elle fonctionne bien pour identifier des archétypes puis proposer des suggestions à un profil en fonction de son niveau de correspondance avec un archétype. Cela peut avoir un effet normatif en poussant des profils très divers vers des contenus devenus normés ou stéréotypés. L’IA vous ramènera souvent sur le chemin le plus emprunté. Or la richesse humaine, c’est aussi sa diversité, son originalité, sa créativité face des situations nouvelles. Pousser les collaborateurs vers des profils normés serait prendre le risque de vulgariser un mode de pensée convenu. Or l’IA n’est pas très efficace pour gérer des approches hétérogènes ou des profils atypiques.

Il faut donc être vigilant pour continuer à promouvoir les parcours atypiques, les croisements de compétences et d’expériences, l’esprit critique, et notre capacité à sortir des sentiers battus…

 

 

 

Quelles sont les applications avant-gardistes de l’IA appliquée aux RH ?

Les champs d’utilisation sont innovants dans la partie reconnaissance faciale, analyse des comportements, de l’état émotionnel, ou encore dans l’analyse automatique du niveau de langue des collaborateurs. J’imagine qu’à l’avenir ce qui se développera aussi ce sont les assistants digitaux, un peu plus experts que les chabots, qui ont des possibilités limitées. Vous pourrez probablement leur demander une multitude d’actions. Chaque collaborateur pourrait avoir son assistant pour écrire un e-mail, obtenir une information, réaliser une recherche, une analyse. Suivons de près les usages émergents autour de ChatGPT, la fameuse application de chat boostée à l’IA, ils seront certainement précurseurs de ce que nous verrons en entreprise.

 

 

Certains usages de l’IA sont prometteurs mais sont-ils tous souhaitables ?

L’IA augmente le potentiel des organisations humaines et leur vitesse d’exécution, de développement, de collaboration. Ses capacités et ses usages s’accroissent jour après jour. Mais l’IA nous met aussi devant nos responsabilités quant aux risques de dérive sur le plan éthique et moral. Il est donc de notre responsabilité collective d’établir un cadre réglementaire qui conditionne les usages, définisse les limites et les droits, avant que nous ne tombions dans une escalade portée par la seule recherche d’efficacité ou de compétitivité.

Ce n’est pas une tâche aisée, mais c’est le grand enjeu des organisations humaines du début du XXIe siècle.

 

 

L’IA à la Une de People At Work #8 : au sommaire ?

Intelligence Providentielle ?

IA : atout ou danger pour l’Expérience Collaborateur ?

C’est avec cette question que la rédaction de People at Work a entamé ses travaux pour ce numéro, il y a quelques semaines. À ce moment-là est intervenu le raz-de-marée ChatGPT. Et comme tout le monde, nous l’avons testé. À la question qui nous occupait, sa réponse :

« Cela dépend de la façon dont elle est utilisée et de la manière dont elle est intégrée dans l’environnement de travail. L’utilisation de l’IA peut aider les employés à se concentrer sur des tâches à plus haute valeur ajoutée. Par exemple, l’utilisation des chatbots peut leur permettre de répondre aux demandes des clients, ce qui peut améliorer la satisfaction des clients et la motivation des employés. Cependant, il est important de veiller à ce que l’utilisation de l’IA ne se fasse pas au détriment de l’emploi et de la QVT. Si elle est mal utilisée, l’intelligence artificielle peut entraîner la suppression de certains emplois et une augmentation de la pression sur les employés qui restent. Il est donc important de mettre en place des mesures pour gérer l’intégration de l’intelligence artificielle de manière équitable et responsable. »

Tout est dit.
À nos lecteurs de décider s’ils feraient la différence entre un éditorial « signé de la patte d’un vrai journaliste » ou un texte « tout droit sorti d’un ordinateur », comme disait l’un de mes anciens patrons de presse.

Anne-Cécile Huprelle,
Rédactrice en chef de People At Work

main robot

Au sommaire de People At Work #8 – IA, tout va bien se penser

Dans le dossier spécial IA

UN GRAND ENTRETIEN : Benoît Coquart, DG du Groupe Legrand

UN VISIONNAIRE :  Cédric Villani

UN EXPERT : Sylvain Letourmy, directeur stratégie applications chez Oracle

 

DES FOCUS :

-MANAGEMENT : Premiers pas avec l’IA, par Myriam Faivre, PDG de la Coopérative d’entrepreneurs CAE CLARA et CLARAbis

-MÉTIERS BOULEVERSÉS : focus en entreprise avec Agnès Duroni, fondatrice d’Adevea et spécialiste du futur du travail, et dans l’industrie avec Xavier Brucker, spécialiste de l’IA dans l’industrie, et Jean-Baptiste Latour, philosophe d’entreprise

BCG X : à l’assaut des transformations digitales

-La transition numérique de Sanofi

-Le leadership génératif selon Fanny Potier-Koninckx Partner & Director, Boston Consulting Group

EDF : une IA pour améliorer l’expérience candidat

-Tribune : comment j’utilise ChatGPT dans mon recrutement ? Par Dan Guez, président du cabinet de recrutement opensourcing.com

-Legislation et IA : que dit la loi en 2023 ? Avec Aida Ponce Del Castillo, avocate

-IA et éthique :  avec Laetitia Orsini Sharps, directrice grand public d’Orange France et présidente de POSITIVE IA

-L’OEIL DE : Luc Ferry, « l’IA forte est une utopie, un pur fantasme ».

 

& aussi

DE LA PROSPECTIVE : Les promesses organisationnelles de l’IA

DES CAS D’ENTREPRISES GREAT PLACE TO WORK

EXPERTISE : La RSE Version BUT

UN DÉBAT : Manager, un poste en désamour ?

 

LA BOITE À OUTILS d’Ilona Boniwell

ENVIRONNEMENTS : le bureau totem

PORTRAIT : Michel Haas, le DRH Pèlerin

 

Acheter et s’abonner à « People at Work »

People At Work #8, le nouveau numéro spécial IA
14,90€ sur monmag.fr

Couverture du magazine People At Work n°8, robot intelligence artificielle

 

 

La femme est l’avenir de la tech

Les chiffres parlent d’eux-mêmes : sur les 87 métiers qui composent la nomenclature des familles professionnelles, 51 sont peu ou très peu féminisés et 8 seulement font état d’une relative parité hommes-femmes. Une vingtaine d’entre eux présentent même un déséquilibre flagrant, avec moins de 10 % de femmes ou d’hommes. Des données publiées par l’Insee à l’été 2020 qui démontrent que les disparités hommes-femmes sur le type et les secteurs d’emploi sont bien une réalité.

Certes, la part des femmes ne cesse d’augmenter sur le marché du travail depuis les années 1960. Mais la ségrégation professionnelle sexuée, en France comme ailleurs, n’est pas un mythe. Une femme sur quatre devrait ainsi échanger sa profession avec un homme pour parvenir à une distribution équilibrée de chaque sexe dans les différents métiers[1]. Pour l’heure, on les retrouve majoritairement dans le secteur tertiaire – administration, santé, social, services à la personne… – quand les hommes s’imposent dans les professions faisant appel à la « force » et à la « technicité », des attributs relevant idéologiquement de la virilité – bâtiment, industrie, ingénierie, agriculture, transport… Et les métiers du numérique, où seules 16 % des femmes occupent des postes à valeur ajoutée, pour une représentation globale de 27,9 %[2].

Pourtant pionnières dans le domaine…

C’est notamment à une certaine Ada Lovelace, mathématicienne, informaticienne et ingénieure britannique, que l’on doit les travaux sur lesquels s’appuie l’invention du code. À l’autrichienne Hedy Lamarr, les bases de la technologie Wifi. Quand l’Américaine Joyce Weisbecker s’est imposée comme la première développeuse indépendante de l’histoire du jeu vidéo. Les femmes étaient donc bien au rendez-vous de cet envol digital qu’ont pris nos sociétés, même si, comme l’avance la chercheuse en microbiologie Flora Vincent, « la majorité faisait surtout office de petites mains et était mal payée ». Il n’empêche que, de 1972 à 1985, la filière informatique était la deuxième à compter le plus de femmes ingénieures au sein des formations techniques (+ de 30 %). Les années 1980 marquant un tournant décisif, avec l’apparition dans les foyers du micro-ordinateur, considéré comme un gadget masculin, et scellant dans le monde professionnel « le moment où les femmes se sont fait évincer, comme à chaque fois que l’on découvre une poule aux œufs d’or. Le côté prestigieux du geek revenant aux hommes ». Un pan de l’histoire que la scientifique met au jour dans l’ouvrage L’Intelligence artificielle, pas sans elles !, coécrit avec la chercheuse en génétique Aude Bernheim, pour le compte du Laboratoire de l’égalité[3]. Tout comme le fait la professeure à la faculté des Sciences de l’éducation de l’Université de Genève, Isabelle Collet, dans Les Oubliées du numérique[4], un essai au travers duquel l’informaticienne de formation tente de répondre à la question de savoir pourquoi le numérique est massivement dominé par les hommes, la part des femmes dans le secteur n’ayant cessé de diminuer depuis les années 1980.

Un monde d’hommes

Isabelle Collet y voit deux raisons. Elle avance ce phénomène sociétal qui veut que « lorsqu’un domaine prend de l’importance dans le monde économique et social, il se masculinise », dénonçant par ailleurs la notion de genre et les stéréotypes qui y sont rattachés. Lesquels engendrent la désertification féminine dans les filières. « L’idée répandue est que le numérique est un monde d’hommes. À quelques exceptions, il est normal que les filles n’aient pas envie de s’engager dans ces cursus où elles se retrouvent en minorité, où il sera difficile pour elles de faire valoir leur légitimité. Sans compter la culture sexiste qui y est tolérée. » Pour l’auteure, « il faut que les institutions veuillent réellement la mixité, que les écoles montrent aux filles qu’elles sont attendues dans ces formations ». C’est ce que s’attellent à démontrer les écoles du genre, à l’instar de Simplon ou de 42, à la pointe de cette question. « À 42, nous avons défini un plan d’actions avec 35 mesures concrètes pour sensibiliser les collégiennes, les lycéennes, les étudiantes, les femmes en recherche d’emploi ou en reconversion professionnelle. Ces initiatives commencent à porter leurs fruits : de 7 % d’étudiantes en 2017, nous sommes passés à 26 % en 2020 et à 46 % de femmes aux dernières sélections. Nous espérons atteindre la parité d’ici à 2022 », avance Sophie Vigier, directrice générale de 42 et de son réseau international 42 Network.

Éviter le syndrome de l’airbag

L’important étant « de montrer concrètement aux femmes, loin des clichés, ce qu’est la tech, que la division sexuée des savoirs n’existe pas ». Et Sophie Vigier cite pour preuve une étude conduite par l’Université Carnegie Mellon, à Pittsburg, mettant au jour que « les cerveaux des enfants fonctionnent de la même manière, quel que soit leur sexe ». Ou, pour le dire autrement, que les sciences comme le numérique ne sont pas une affaire de genre. Mais, selon Flora Vincent, « l’intelligence artificielle est encore trop souvent associée à un côté technique. Pour qu’elle se féminise, il est important de la présenter comme un moyen et non comme une fin en soi : elle permet de mieux soigner, d’éduquer, de gérer les ressources énergétiques… Autant de domaines plébiscités par les femmes ». D’autant que l’absence de celles-ci dans le secteur n’est pas sans conséquences sur nos sociétés, qui reposent, de fait, sur des algorithmes sexistes biaisés. C’est ce que dénoncent les recherches avancées dans L’Intelligence artificielle, pas sans elles !, faisant valoir que ce manque de mixité dans les algorithmes, « mis au point par des hommes blancs issus d’un milieu social favorisé », engendre des données à l’image de ceux qui les ont conçus, donc non représentatives de l’ensemble de la population. La directrice de l’école 42 citant, parmi de nombreux exemples, « le “syndrome de l’airbag”, dont les premiers modèles conçus pour des hommes de 1,80 m ne protégeaient pas les femmes »[5]. L’IA étant vouée à prendre une place prépondérante dans nos vies, il est donc crucial que le « code mâle » ne soit plus la norme pour refléter des sociétés plus égalitaires. « Une tech mixte et inclusive est nécessaire si nous voulons faire face aux défis de demain. Se priver des femmes, c’est se priver de 50 % de talents potentiels et d’un moteur de croissance crucial alors que la tech européenne manque de 700 000 profils », conclut Sophie Vigier.

[1] Selon un document édité par la Direction de l’animation de la recherche, des études et des statistiques du ministère du Travail, de l’Emploi et de l’Insertion en juillet 2019.

[2] Selon le libre blanc édité par Syntec Numérique et Social Builder pour soutenir la reconversion des femmes dans le numérique.

[3] L’Intelligence artificielle, pas sans elles !, d’Aude Bernheim et Flora Vincent, collection « Égale à égal », Belin Éditeur, 2019.

[4] Les Oubliées du numérique, d’Isabelle Collet, Le Passeur Éditeur, 2019.

[5] Dans son ouvrage,  Invisible Women, Exposing Data Bias in a World Designed for Men (2019), la journaliste britannique Caroline Criado-Perez évoquait cette invisibilisation des femmes dans les dispositifs de sécurité des voitures. Selon les données de l’auteure, les femmes avaient 47% de risques supplémentaires d’être sérieusement blessées en cas d’accident. Ce n’est qu’en 2011 que les Etats-Unis ont introduit des mannequins féminins dans les tests de collision. Mais des lacunes persistent : les femmes ne sont souvent pas positionnées de la même manière en raison de leur taille en moyenne plus petite. Caroline Criado-Perez explique : «C’est juste un mannequin masculin réduit. […] Mais les femmes ne sont pas des hommes réduits. Nous avons une distribution de masse musculaire différente. Nous avons une densité osseuse inférieure. Il existe des différences dans l’espacement des vertèbres. Même notre corps est différent. Et ces différences sont toutes cruciales en ce qui concerne le taux de blessures dans les accidents de la route.»