« Nous nous sommes rendu compte que les entreprises avaient aujourd’hui besoin d’accompagnement et de solutions pour progresser et rendre visible la mise en œuvre d’une IA responsable au sein de leur organisation », déclare Lætitia Orsini Sharps, directrice grand public d’Orange France et présidente de Positive AI, une association créée en 2022 par Orange France, L’Oréal, Malakoff Humanis et BCG Gamma. « L’IA responsable, c’est pour le bénéfice de l’humain et c’est contrôlé par l’humain », poursuit-elle. Il est extrêmement important que les entreprises soient capables de montrer que ce progrès technologique est bien au service de la société. »
L’une des principales missions de Positive AI est « d’offrir aux entreprises un espace d’échange, de dialogue et de partage sur les bonnes pratiques pour réfléchir ensemble aux interrogations qui sont essentielles et faire progresser ce sujet d’une IA éthique et responsable », précise sa présidente. Lætitia Orsini Sharps lance aussi un appel aux dirigeants pour qu’ils s’intéressent à ces problématiques, qui ne devraient pas, selon elle, concerner les seuls data scientists : « Ce sont des sujets dont les dirigeants doivent s’emparer. Ils doivent comprendre tout le potentiel de cette IA, et en même temps toutes les règles et la gouvernance qu’il faut mettre en place pour que ces outils restent pilotés par l’humain et soient au service de l’humain. Des positions doivent être prises et elles doivent être très fortes. »
Un label certifiant la gouvernance et les systèmes d’une IA éthique
Pour apporter des solutions concrètes permettant aux organisations de rendre opérationnelles ces bonnes pratiques, Positive AI est en train de finaliser la mise en place du premier label d’IA éthique en France. « Ce label permettra aux entreprises de vérifier leur niveau de maturité sur l’IA responsable », explique la dirigeante. À travers un référentiel établi par les équipes de data scientists et de chefs de projet des quatre entreprises fondatrices de l’association, et suivant les principales recommandations émises par la Commission européenne, ce label sera construit autour de deux piliers : la gouvernance de l’organisation et les systèmes d’IA eux-mêmes.
Une partie de ces systèmes, « ceux qui seront identifiés comme présentant le plus de risques », seront examinés en profondeur par les auditeurs. Les organisations devront aussi fournir des éléments prouvant leurs bonnes pratiques en matière de contrôle par l’humain de ces systèmes, par exemple, la protection de certaines populations. « En auditant aussi la gouvernance, on peut revenir sur ce qui a été audité. Cela va garantir qu’au sein de l’entreprise on ait un système global vertueux. »
La note finale donnant droit à la labellisation Positive AI, valable deux ans, permettra à l’organisation de savoir auquel des trois niveaux prévus par le référentiel correspond la maturité de son IA. Ce point est très important, selon la présidente, puisque le label doit être « accessible à l’ensemble des entreprises » : « On est vraiment dans une logique de progression et d’apprentissage en commun. » Les organisations fondatrices de l’association seront les premières à passer l’épreuve de la certification, et le label sera ensuite ouvert aux entreprises extérieures dans le courant du deuxième trimestre 2023.
Mobiliser en interne et contribuer au débat public
Ainsi, les organisations de toute taille et de tout secteur pourront adhérer à Positive AI et candidater au label. « On a posé ce socle, mais il est au service de l’ensemble des entreprises, donc, plus nous serons nombreux, plus ce sera riche. C’est l’abondance de regards croisés, d’approches différentes, avec diverses modalités de mise en œuvre, qui fera la richesse de la démarche », indique Lætitia Orsini Sharps. En interne, une IA responsable est également importante « pour attirer et retenir les collaborateurs, poursuit-elle. Les data experts cherchent du sens dans ce qu’ils font, dans leur parcours professionnel, et veulent s’impliquer dans des organisations qui partagent leurs préoccupations en matière d’éthique ».
Une autre ambition de Positive AI est de participer activement aux discussions sur la constitution de normes, tant au niveau français qu’à l’échelle européenne : « Notre objectif est aussi de contribuer au débat public sur la régulation et les perspectives de l’IA, en se rapprochant d’acteurs publics et privés, en France et à l’étranger, pour mettre en commun cette approche. Cela nous semble important d’avoir une vision européenne de cette IA responsable. Nous contribuerons au débat en soutenant la position concrète et pragmatique d’entreprises qui font l’IA et qui l’utilisent. »