Allier IA et éthique, mission impossible ?

 

« Nous nous sommes rendu compte que les entreprises avaient aujourd’hui besoin d’accompagnement et de solutions pour progresser et rendre visible la mise en œuvre d’une IA responsable au sein de leur organisation », déclare Lætitia Orsini Sharps, directrice grand public d’Orange France et présidente de Positive AI, une association créée en 2022 par Orange France, L’Oréal, Malakoff Humanis et BCG Gamma. « L’IA responsable, c’est pour le bénéfice de l’humain et c’est contrôlé par l’humain », poursuit-elle. Il est extrêmement important que les entreprises soient capables de montrer que ce progrès technologique est bien au service de la société. »

L’une des principales missions de Positive AI est « d’offrir aux entreprises un espace d’échange, de dialogue et de partage sur les bonnes pratiques pour réfléchir ensemble aux interrogations qui sont essentielles et faire progresser ce sujet d’une IA éthique et responsable », précise sa présidente. Lætitia Orsini Sharps lance aussi un appel aux dirigeants pour qu’ils s’intéressent à ces problématiques, qui ne devraient pas, selon elle, concerner les seuls data scientists : « Ce sont des sujets dont les dirigeants doivent s’emparer. Ils doivent comprendre tout le potentiel de cette IA, et en même temps toutes les règles et la gouvernance qu’il faut mettre en place pour que ces outils restent pilotés par l’humain et soient au service de l’humain. Des positions doivent être prises et elles doivent être très fortes. »

 

Un label certifiant la gouvernance et les systèmes d’une IA éthique

Pour apporter des solutions concrètes permettant aux organisations de rendre opérationnelles ces bonnes pratiques, Positive AI est en train de finaliser la mise en place du premier label d’IA éthique en France. « Ce label permettra aux entreprises de vérifier leur niveau de maturité sur l’IA responsable », explique la dirigeante. À travers un référentiel établi par les équipes de data scientists et de chefs de projet des quatre entreprises fondatrices de l’association, et suivant les principales recommandations émises par la Commission européenne, ce label sera construit autour de deux piliers : la gouvernance de l’organisation et les systèmes d’IA eux-mêmes.

Une partie de ces systèmes, « ceux qui seront identifiés comme présentant le plus de risques », seront examinés en profondeur par les auditeurs. Les organisations devront aussi fournir des éléments prouvant leurs bonnes pratiques en matière de contrôle par l’humain de ces systèmes, par exemple, la protection de certaines populations. « En auditant aussi la gouvernance, on peut revenir sur ce qui a été audité. Cela va garantir qu’au sein de l’entreprise on ait un système global vertueux. »

La note finale donnant droit à la labellisation Positive AI, valable deux ans, permettra à l’organisation de savoir auquel des trois niveaux prévus par le référentiel correspond la maturité de son IA. Ce point est très important, selon la présidente, puisque le label doit être « accessible à l’ensemble des entreprises » : « On est vraiment dans une logique de progression et d’apprentissage en commun. » Les organisations fondatrices de l’association seront les premières à passer l’épreuve de la certification, et le label sera ensuite ouvert aux entreprises extérieures dans le courant du deuxième trimestre 2023.

 

Mobiliser en interne et contribuer au débat public

Ainsi, les organisations de toute taille et de tout secteur pourront adhérer à Positive AI et candidater au label. « On a posé ce socle, mais il est au service de l’ensemble des entreprises, donc, plus nous serons nombreux, plus ce sera riche. C’est l’abondance de regards croisés, d’approches différentes, avec diverses modalités de mise en œuvre, qui fera la richesse de la démarche », indique Lætitia Orsini Sharps. En interne, une IA responsable est également importante « pour attirer et retenir les collaborateurs, poursuit-elle. Les data experts cherchent du sens dans ce qu’ils font, dans leur parcours professionnel, et veulent s’impliquer dans des organisations qui partagent leurs préoccupations en matière d’éthique ».

Une autre ambition de Positive AI est de participer activement aux discussions sur la constitution de normes, tant au niveau français qu’à l’échelle européenne : « Notre objectif est aussi de contribuer au débat public sur la régulation et les perspectives de l’IA, en se rapprochant d’acteurs publics et privés, en France et à l’étranger, pour mettre en commun cette approche. Cela nous semble important d’avoir une vision européenne de cette IA responsable. Nous contribuerons au débat en soutenant la position concrète et pragmatique d’entreprises qui font l’IA et qui l’utilisent. »

Intelligence artificielle : pour un virage éthique et féminin

L’intelligence artificielle véhicule-t-elle des stéréotypes ?

Delphine Pouponneau :

Les algorithmes sont à notre image et les « biais » présents dans notre société peuvent potentiellement être véhiculés dans ceux-ci. Cela commence dès la conception de l’algorithme, puis au moment où on l’alimente avec des données, qui peuvent être elles aussi biaisées. Le développeur peut également influencer l’algorithme avec ses propres biais sans même s’en apercevoir. C’est donc une attention à porter de bout en bout. Tout le processus est à analyser, du prescripteur au développeur. Une fois dans la machine, cela peut générer des discriminations. Cependant, l’IA représente une formidable opportunité dans le domaine de la médecine, de l’éducation ou de l’environnement, par exemple, en raison du caractère exponentiel des données traitées. Mais il faut être vigilant, et cela passe en particulier par la mixité des équipes et la diversité des profils qui gèrent de l’IA.

Cristina Lunghi :

Dipty Chander est la marraine d’une action que mène Arborus depuis 2004. « La courte échelle » consiste à inciter des collégiennes issues de quartiers défavorisés à s’orienter vers des métiers masculins, comme l’IA. Au vu de mon engagement pour l’égalité et l’inclusion dans le monde du travail avec le label GEEIS[1], depuis plus de vingt ans, les biais que comporte l’IA m’inquiètent. Ils représentent un réel danger et sont susceptibles de remettre en cause tout le travail entrepris depuis tant d’années pour l’égalité. Or la faible présence des femmes dans l’IA pose la question de la définition du monde de demain s’il est laissé à la seule vision masculine. Il ne faudrait pas que les femmes ratent le virage du XXIe siècle.

 

 

Comment définir une IA éthique  ?

DP :

Orange soutient l’approche de la commission européenne et les « recommandations pour une éthique de l’IA de confiance », car nous sommes convaincus que la promesse de l’intelligence artificielle ne saurait se réaliser pleinement qu’en la concevant, en la déployant et la mettant en œuvre de manière responsable. L’intelligence artificielle doit se construire au service de tous, respecter les diversités et lutter contre les risques de biais ou de discrimination.

CL :

Dans les nouveaux algorithmes se trouve aussi le paramétrage d’une nouvelle société. Il faut impérativement saisir cette occasion pour en faire un monde plus inclusif et donc meilleur.

 

 

Comment en fait-on des correcteurs de biais ? Sachant qu’au départ en tant qu’êtres humains, on est tous biaisés ?…

DP :

Ce n’est pas un sujet simple mais on voit émerger des prescriptions en la matière. Il est déjà important de faire travailler ensemble les prescripteurs et les développeurs. Ce sont les premiers qui valident la conformité des résultats produits par l’intelligence artificielle, via des processus itératifs pour corriger au fil de l’eau. Assurer un contrôle humain à toutes les étapes de la chaîne pour savoir ce que produit d’IA et le valider ou l’ajuster est fondamental.

CL :

Il me semble aussi très important de sensibiliser les gens à leurs propres biais et au fait que dès qu’il y a interaction avec une machine, aujourd’hui, il y a interaction avec l’IA. Nous sommes à un moment charnière de notre histoire, que j’appelle « l’année zéro » dans mon dernier ouvrage[2]. Tous les systèmes sont à revisiter, l’IA peut devenir une opportunité formidable de remettre tout à « zéro » pour reconstruire sur des bases égalitaires. J’observe un certain nombre de faisceaux convergents et positifs : la charte que nous avons lancée ensemble, le développement des soft skills [compétences transversales] (qui sont traditionnellement attribuées aux femmes, telles que l’empathie, l’écoute, le soin), les règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle mises en place par la Commission européenne en avril. Nous sommes à la croisée des chemins, on peut faire changer les choses.

 

 

Comment peut-on donner envie aux femmes de s’engager dans cette bataille ?

DP :

C’est tout notre enjeu à Orange, même s’il n’est pas nouveau, car nous œuvrons depuis des années pour la féminisation de nos métiers. Laissez-moi partager une statistique récente : seules 3 % des bachelières ont choisi la spécialité « numérique et sciences informatiques ». Il faut construire un vrai partenariat entre l’Éducation nationale, les associations et le monde de l’entreprise. À Orange, nous venons de lancer un programme qui se nomme Hello Women pour améliorer la mixité dans les équipes techniques autour de quatre piliers. Le premier vise à sensibiliser les jeunes filles dès le plus jeune âge. Le second contribue à identifier et à attirer les femmes susceptibles d’être recrutées dans ces domaines. Nous avons fait notamment un travail important autour de la marque employeur, en mettant en avant des rôles modèles féminins. Le troisième vise à reconvertir des femmes dans ces filières à forte employabilité. Nous avons créé un CFA [centre de formation d’apprentis] et pris un engagement de 30 % de femmes au minimum dans nos promotions. Nous avons également conclu un partenariat avec l’association Techfugees pour aider à la reconversion de femmes diplômées réfugiées en France. Enfin, le dernier pilier vise à fidéliser les femmes dans les métiers techniques. Nous venons de lancer l’enquête Gender Scan pour comprendre les facteurs d’attraction, d’engagement et de rétention des femmes dans les métiers scientifiques. Nos filières sont des filières d’avenir, offrant de nombreuses opportunités d’emploi. Nous intervenons également beaucoup en faveur de l’entrepreneuriat au féminin.

CL :

En effet, la création d’entreprise est un enjeu majeur. Les startupeuses sont 17 % seulement, et, depuis vingt-cinq ans, le nombre de créatrices a à peine augmenté. La difficulté pour avancer en matière de création s’explique par des schémas culturels biaisés dont on n’arrive pas à sortir. C’est un problème de société, de culture. Toutes nos initiatives prises par Arborus, Gender Scan, Les Pionnières, ou Mampreneures vont dans le bon sens. Pour autant, il est essentiel de changer de paradigme au niveau de notre projet de société pour en faire une société plus juste. L’IA pourrait peut-être permettre de bousculer les lignes car elle rend possible une prise de conscience.

DP :

Nous constatons que dans certains pays nous n’avons pas de problème de féminisation autour de l’IA et de la data. Les jouets sont genrés, les séries aussi. Et on sait qu’elles influencent énormément le public. Si nous pouvions avoir une série où les modèles féminins ne soient pas des stéréotypes ! Nous devons tous faire un effort collectif pour « débiaiser » : presse, éducation, médias, monde ludique…

 

 

L’IA peut-elle jouer un rôle dans les problématiques de qualité de vie au travail ?

DP :

Les robots viennent soulager les collaborateurs des tâches pénibles ou à faible valeur ajoutée. Les chatbots, les supports de conversation aident beaucoup nos conseillers, qui peuvent se focaliser sur les questions les plus complexes. Bien entendu, cela nécessite qu’on les accompagne par la formation, pour les faire monter en compétence. On utilise de l’IA pour faire de la maintenance prédictive et ainsi anticiper les pannes d’équipement chez nos clients. L’IA aide à la prise de décision et apporte des éclairages complémentaires. En matière de RH, à Orange, nous proposons au candidat d’utiliser notre programme CV Catcher, qui va lui suggérer des offres plus ciblées sur son profil et de manière de plus en plus fine selon ses réactions.

L’IA permet une meilleure maîtrise du travail et facilite la vie des collaborateurs. Là encore, restons vigilants pour accompagner les équipes : la charge cognitive peut être forte si l’humain n’a plus que des cas complexes à gérer. Il faut assurer la complémentarité entre l’homme et la machine à tous les niveaux.

CL :

L’IA en entreprise permet d’optimiser l’organisation du temps de travail, des partages d’informations sur les gardes d’enfants, du mentorat… Beaucoup de start-up améliorent notre quotidien, comme Blablacar, qui permet d’optimiser les déplacements et les rend plus économiques et écologiques. Au quotidien avec nos smartphones, il est possible de régler beaucoup de problèmes à distance. Tout cela favorise l’humain.

 

 

Quelles sont les prochaines étapes ?

DP :

La création de la Charte Arborus pour une IA inclusive a constitué une première brique permettant par ailleurs de mobiliser un grand nombre d’acteurs pour sensibiliser sur ces sujets. L’obtention du label GEEIS-AI illustre notre engagement pour l’égalité numérique et s’inscrit dans le prolongement de la signature de la Charte. Le référentiel GEEIS-AI, mis en place par le Fonds Arborus et confié à la certification du Bureau Veritas, permet de sensibiliser toute la chaîne d’élaboration de l’IA, de sa conception jusqu’à son exploitation.

Cela nous a permis de nous coordonner en interne et de structurer notre démarche. Nous espérons que nous aurons de plus en plus de participants aux deux initiatives. Nous avons lancé notre comité éthique, présidé par Stéphane Richard, comprenant de nombreux membres externes, à qui nous demandons de nous « challenger » sur l’usage de l’IA, ce qui nous semble procéder de l’éthique.

CL :

 

 

 

Le groupe Orange et Arborus sont à l’origine de la première Charte internationale pour une intelligence artificielle inclusive.

Ce texte se veut être une référence pour l’ensemble des entreprises engagées en faveur de l’égalité des chances. Il a pour vocation de garantir une IA conçue, déployée et appliquée de manière responsable. La Charte repose sur une conviction : l’IA est un levier de développement et de progrès dans les domaines de l’éducation, de la santé, de l’environnement et de l’industrie. Cette technologie est aussi une opportunité pour réduire les inégalités, elle doit être mise au service de l’un des grands défis du XXIe siècle : l’égalité et l’inclusion. Danone, EDF, L’Oréal, Orange, Metro, Sodexo, sociétés engagées dans une politique européenne et internationale en faveur de l’égalité professionnelle et labellisée GEEIS, sont les premières signataires de cette Charte.

[1] GEEIS : Gender Equality European & International Standard.

[2] Plaidoyer pour l’égalité. Année zéro, de Cristina Lunghi, L’Harmattan, 2018.