L’intelligence artificielle véhicule-t-elle des stéréotypes ?
Delphine Pouponneau :
Les algorithmes sont à notre image et les « biais » présents dans notre société peuvent potentiellement être véhiculés dans ceux-ci. Cela commence dès la conception de l’algorithme, puis au moment où on l’alimente avec des données, qui peuvent être elles aussi biaisées. Le développeur peut également influencer l’algorithme avec ses propres biais sans même s’en apercevoir. C’est donc une attention à porter de bout en bout. Tout le processus est à analyser, du prescripteur au développeur. Une fois dans la machine, cela peut générer des discriminations. Cependant, l’IA représente une formidable opportunité dans le domaine de la médecine, de l’éducation ou de l’environnement, par exemple, en raison du caractère exponentiel des données traitées. Mais il faut être vigilant, et cela passe en particulier par la mixité des équipes et la diversité des profils qui gèrent de l’IA.
Cristina Lunghi :
Dipty Chander est la marraine d’une action que mène Arborus depuis 2004. « La courte échelle » consiste à inciter des collégiennes issues de quartiers défavorisés à s’orienter vers des métiers masculins, comme l’IA. Au vu de mon engagement pour l’égalité et l’inclusion dans le monde du travail avec le label GEEIS[1], depuis plus de vingt ans, les biais que comporte l’IA m’inquiètent. Ils représentent un réel danger et sont susceptibles de remettre en cause tout le travail entrepris depuis tant d’années pour l’égalité. Or la faible présence des femmes dans l’IA pose la question de la définition du monde de demain s’il est laissé à la seule vision masculine. Il ne faudrait pas que les femmes ratent le virage du XXIe siècle.
Comment définir une IA éthique ?
DP :
Orange soutient l’approche de la commission européenne et les « recommandations pour une éthique de l’IA de confiance », car nous sommes convaincus que la promesse de l’intelligence artificielle ne saurait se réaliser pleinement qu’en la concevant, en la déployant et la mettant en œuvre de manière responsable. L’intelligence artificielle doit se construire au service de tous, respecter les diversités et lutter contre les risques de biais ou de discrimination.
CL :
Dans les nouveaux algorithmes se trouve aussi le paramétrage d’une nouvelle société. Il faut impérativement saisir cette occasion pour en faire un monde plus inclusif et donc meilleur.
Comment en fait-on des correcteurs de biais ? Sachant qu’au départ en tant qu’êtres humains, on est tous biaisés ?…
DP :
Ce n’est pas un sujet simple mais on voit émerger des prescriptions en la matière. Il est déjà important de faire travailler ensemble les prescripteurs et les développeurs. Ce sont les premiers qui valident la conformité des résultats produits par l’intelligence artificielle, via des processus itératifs pour corriger au fil de l’eau. Assurer un contrôle humain à toutes les étapes de la chaîne pour savoir ce que produit d’IA et le valider ou l’ajuster est fondamental.
CL :
Il me semble aussi très important de sensibiliser les gens à leurs propres biais et au fait que dès qu’il y a interaction avec une machine, aujourd’hui, il y a interaction avec l’IA. Nous sommes à un moment charnière de notre histoire, que j’appelle « l’année zéro » dans mon dernier ouvrage[2]. Tous les systèmes sont à revisiter, l’IA peut devenir une opportunité formidable de remettre tout à « zéro » pour reconstruire sur des bases égalitaires. J’observe un certain nombre de faisceaux convergents et positifs : la charte que nous avons lancée ensemble, le développement des soft skills [compétences transversales] (qui sont traditionnellement attribuées aux femmes, telles que l’empathie, l’écoute, le soin), les règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle mises en place par la Commission européenne en avril. Nous sommes à la croisée des chemins, on peut faire changer les choses.
Comment peut-on donner envie aux femmes de s’engager dans cette bataille ?
DP :
C’est tout notre enjeu à Orange, même s’il n’est pas nouveau, car nous œuvrons depuis des années pour la féminisation de nos métiers. Laissez-moi partager une statistique récente : seules 3 % des bachelières ont choisi la spécialité « numérique et sciences informatiques ». Il faut construire un vrai partenariat entre l’Éducation nationale, les associations et le monde de l’entreprise. À Orange, nous venons de lancer un programme qui se nomme Hello Women pour améliorer la mixité dans les équipes techniques autour de quatre piliers. Le premier vise à sensibiliser les jeunes filles dès le plus jeune âge. Le second contribue à identifier et à attirer les femmes susceptibles d’être recrutées dans ces domaines. Nous avons fait notamment un travail important autour de la marque employeur, en mettant en avant des rôles modèles féminins. Le troisième vise à reconvertir des femmes dans ces filières à forte employabilité. Nous avons créé un CFA [centre de formation d’apprentis] et pris un engagement de 30 % de femmes au minimum dans nos promotions. Nous avons également conclu un partenariat avec l’association Techfugees pour aider à la reconversion de femmes diplômées réfugiées en France. Enfin, le dernier pilier vise à fidéliser les femmes dans les métiers techniques. Nous venons de lancer l’enquête Gender Scan pour comprendre les facteurs d’attraction, d’engagement et de rétention des femmes dans les métiers scientifiques. Nos filières sont des filières d’avenir, offrant de nombreuses opportunités d’emploi. Nous intervenons également beaucoup en faveur de l’entrepreneuriat au féminin.
CL :
En effet, la création d’entreprise est un enjeu majeur. Les startupeuses sont 17 % seulement, et, depuis vingt-cinq ans, le nombre de créatrices a à peine augmenté. La difficulté pour avancer en matière de création s’explique par des schémas culturels biaisés dont on n’arrive pas à sortir. C’est un problème de société, de culture. Toutes nos initiatives prises par Arborus, Gender Scan, Les Pionnières, ou Mampreneures vont dans le bon sens. Pour autant, il est essentiel de changer de paradigme au niveau de notre projet de société pour en faire une société plus juste. L’IA pourrait peut-être permettre de bousculer les lignes car elle rend possible une prise de conscience.
DP :
Nous constatons que dans certains pays nous n’avons pas de problème de féminisation autour de l’IA et de la data. Les jouets sont genrés, les séries aussi. Et on sait qu’elles influencent énormément le public. Si nous pouvions avoir une série où les modèles féminins ne soient pas des stéréotypes ! Nous devons tous faire un effort collectif pour « débiaiser » : presse, éducation, médias, monde ludique…
L’IA peut-elle jouer un rôle dans les problématiques de qualité de vie au travail ?
DP :
Les robots viennent soulager les collaborateurs des tâches pénibles ou à faible valeur ajoutée. Les chatbots, les supports de conversation aident beaucoup nos conseillers, qui peuvent se focaliser sur les questions les plus complexes. Bien entendu, cela nécessite qu’on les accompagne par la formation, pour les faire monter en compétence. On utilise de l’IA pour faire de la maintenance prédictive et ainsi anticiper les pannes d’équipement chez nos clients. L’IA aide à la prise de décision et apporte des éclairages complémentaires. En matière de RH, à Orange, nous proposons au candidat d’utiliser notre programme CV Catcher, qui va lui suggérer des offres plus ciblées sur son profil et de manière de plus en plus fine selon ses réactions.
L’IA permet une meilleure maîtrise du travail et facilite la vie des collaborateurs. Là encore, restons vigilants pour accompagner les équipes : la charge cognitive peut être forte si l’humain n’a plus que des cas complexes à gérer. Il faut assurer la complémentarité entre l’homme et la machine à tous les niveaux.
CL :
L’IA en entreprise permet d’optimiser l’organisation du temps de travail, des partages d’informations sur les gardes d’enfants, du mentorat… Beaucoup de start-up améliorent notre quotidien, comme Blablacar, qui permet d’optimiser les déplacements et les rend plus économiques et écologiques. Au quotidien avec nos smartphones, il est possible de régler beaucoup de problèmes à distance. Tout cela favorise l’humain.
Quelles sont les prochaines étapes ?
DP :
La création de la Charte Arborus pour une IA inclusive a constitué une première brique permettant par ailleurs de mobiliser un grand nombre d’acteurs pour sensibiliser sur ces sujets. L’obtention du label GEEIS-AI illustre notre engagement pour l’égalité numérique et s’inscrit dans le prolongement de la signature de la Charte. Le référentiel GEEIS-AI, mis en place par le Fonds Arborus et confié à la certification du Bureau Veritas, permet de sensibiliser toute la chaîne d’élaboration de l’IA, de sa conception jusqu’à son exploitation.
Cela nous a permis de nous coordonner en interne et de structurer notre démarche. Nous espérons que nous aurons de plus en plus de participants aux deux initiatives. Nous avons lancé notre comité éthique, présidé par Stéphane Richard, comprenant de nombreux membres externes, à qui nous demandons de nous « challenger » sur l’usage de l’IA, ce qui nous semble procéder de l’éthique.
CL :
Le groupe Orange et Arborus sont à l’origine de la première Charte internationale pour une intelligence artificielle inclusive.
Ce texte se veut être une référence pour l’ensemble des entreprises engagées en faveur de l’égalité des chances. Il a pour vocation de garantir une IA conçue, déployée et appliquée de manière responsable. La Charte repose sur une conviction : l’IA est un levier de développement et de progrès dans les domaines de l’éducation, de la santé, de l’environnement et de l’industrie. Cette technologie est aussi une opportunité pour réduire les inégalités, elle doit être mise au service de l’un des grands défis du XXIe siècle : l’égalité et l’inclusion. Danone, EDF, L’Oréal, Orange, Metro, Sodexo, sociétés engagées dans une politique européenne et internationale en faveur de l’égalité professionnelle et labellisée GEEIS, sont les premières signataires de cette Charte.
[1] GEEIS : Gender Equality European & International Standard.
[2] Plaidoyer pour l’égalité. Année zéro, de Cristina Lunghi, L’Harmattan, 2018.