L’intelligence artificielle, pas sans elles !, Aude Bernheim, Flora Vincent

L’intelligence artificielle, pas sans elles !, Aude Bernheim, Flora Vincent

Un livre synthétique, pédagogique, référencé et engagé sur les enjeux de genres en lien avec l’intelligence artificielle. Vu l’ampleur de ce qui est en jeu pour notre futur, on remercie les autrices de s’emparer du sujet pour le rendre compréhensible au grand public. Matière à réflexion qui nous montre une fois de plus l’influence cruciale des cultures et des représentations dans les choix d’orientation, et en retour combien ces derniers façonnent toute notre société.

En école d’informatique en France en 2018, on compte 10% de filles parmi les étudiants. En Terminale S, option math, elles sont 19% en 2015. Dans le secteur numérique aujourd’hui, si on excepte les fonctions transverses (RH, communication, marketing…) elles constituent 12% des employés.

Minoritaires, elles se retrouvent également souvent dans une culture hostile où elles ne sont pas les bienvenues. Outre les remarques sexistes voire le harcèlement sexuel au sujet desquelles les témoignages abondent, on trouve des aberrations liées à la perception de la qualité même du code. En 2016 des chercheurs ont étudié les taux d’acceptations de requêtes de modification du code (Josh Terrell et al., “Gender differences and bias in open source: pull request acceptance of women versus men”, PeerJ Computer Science 2 : e111) . Les suggestions des développeuses ont en moyenne plus de chance d’être acceptées… A condition qu’on ne voit pas sur leur profil qu’elles sont des femmes. Si leur genre apparaît, leur suggestions ont alors moins de chances d’être acceptées.

On pourrait se dire : rien de nouveau sous le soleil, c’est un énième secteur professionnel où les luttes pour l’égalité sont encore loin d’être terminées. Sauf que dans le cas de l’informatique, et notamment de l’intelligence artificielle, ça va plus loin que ça. Une partie de plus en plus importante de notre monde est structurée par la manière dont les ingénieur.e.s et développeur.se.s le codent.

L’intelligence artificielle regroupe un ensemble de techniques permettant à une machine (des algorithmes) de reproduire des capacités cognitives humaines - calcul, mémoire, mais aussi apprentissage, prédiction, créativité. L’IA constituera un marché d’un volume de 5 milliards de dollars en 2020 ; et, d’après l’OCDE, elle devrait faire disparaître ou transformer profondément plus de 30% des emplois actuels. Ces changements affectent tous les secteurs : les médias, la publicité, la finance, la santé, l’assurance, le recrutement, la robotique… Les enjeux sont loin d’être minces ou cantonnés à un intérêt de geeks : c’est la conception technologico-idéologique du futur qui est en question.

Or depuis le début de la mise en application de ces programmes, plusieurs problèmes / scandales liés aux biais sexistes et racistes des algorithmes ont émergé. Pour n’en citer que trois exemples :

- En 2017, un internaute a déclenché une polémique en montrant que le logiciel de traduction de Google véhiculait des stéréotypes ; un exemple flagrant étant la traduction du turc vers l’anglais. En turc, il n’y a pas de pronom il/le ou elle/la : seulement le/on. Mais lorsqu’il traduit vers l’anglais, Google choisit arbitrairement un pronom. « Une personne heureuse » devient « Un homme heureux », « Une personne malheureuse » = « Une femme malheureuse » ; « Une personne mariée » = « Une femme mariée », etc. ! Comment ? Pourquoi ? Parce que l’algorithme se base sur les occurrences les plus fréquentes d’association de mots dans les bases de texte sur lesquelles il navigue. Aussi il a tendance à associer « maestro » et « capitaine » au genre masculin mais « infirmier » et « nounou » à une femme.

- En 2015, Amazon a dû interrompre l’usage d’un algorithme d’aide à la décision à l’embauche. L’algorithme, en se basant sur les données des dix dernières années de recrutement, a pénalisé les CV contenant le mot « femme » pour les postes techniques.

- En 2018, une étudiante du MIT, Joy Buolamwini a montré que le logiciel de reconnaissance faciale de Microsoft reconnaît les hommes blancs, mais est moins performant quand il s’agit de femmes à la peau sombre. Lorsque les équipes qui conçoivent ces algorithmes sont homogènes - majoritairement masculines, et/ou blanches -, elles ont de fortes chances de passer à côté de biais majeurs.

Bref, les algorithmes apprennent… sous l’influence des bases de données qu’on lui fournit. Ce faisant, ils perpétuent (voire pire, renforcent !) des stéréotypes sexistes, racistes, économiques, homophobes, etc. D’autant plus lorsque les équipes qui les conçoivent sont homogènes (majoritairement blanches, majoritairement masculines, majoritairement valides, etc.) C’est uniquement parce qu’une femme noire utilisait le logiciel de reconnaissance faciale de Microsoft au MIT que le problème a été soulevé.

Que faire face à ça ?

Les chercheurs mettent désormais des contraintes aux algorithmes pour les empêcher de renforcer les biais sexistes. Les comités éthiques se multiplient. Des lois sont votées pour réguler les algorithmes et déterminer qui est responsable de leurs prises de décisions (les développeurs qui les ont conçu ? Ou l’entité qui n’a pas su s’en servir correctement ?) Des initiatives de plus en plus nombreuses voient le jour pour soutenir les carrières des femmes en informatique, notamment concernant l’orientation des petites et jeunes filles vers les métiers du numérique et de l’IA.

« Mais même si l’orientation était plus égalitaire, ce qui est loin d’être gagné tellement les résistances sont fortes, il faudrait deux décennies avant que des promotions égalitaires n’émergent. Et probablement trois ou quatre avant qu’on n’arrive à dépasser les maigres 10% de femmes décisionnaires dans cet univers. (…) Or, c’est maintenant que les enjeux de l’IA se déterminent » . Et ils influent durablement notre futur.

Si on fait les choses bien, l’IA pourrait même servir au contraire comme un levier d’égalité. Par exemple, ces chercheurs qui en 2016 ont pu mesurer l’inégalité dans les cadres d’entreprises. Leurs algorithmes ont passé au crible 7200 photos de conseils d’administrations des 500 plus grandes entreprises mondiales, et ont analysé que les femmes ne représentent que 21,2% des cadres dirigeants. Voire, dans certaines des plus grandes entreprises mondiales, 0%. (Konstantin Chekanov et al., “Evaluating race and sex diversity in the world’s largest companies using deep neural networks”, arXiv: 1707.02353) …

C’est donc maintenant qu’il faut se soucier de la mixité des équipes et des prises de décision, du mélange « hautement souhaitable des points et des talents des deux sexes constitutifs à parts égales de la société, seul garant d’une objectivité durable des programmes et d’une culture de l’égalité. »

G.C.

L’intelligence artificielle, pas sans elles ! Aude Bernheim, Flora Vincent. Préface de Cédric Villani. Editions Belin, 2019

Aude Bernheim et Flora Vincent sont toutes deux docteures en science, formées respectivement à l’Institut Pasteur et à l’École Normale Supérieure. Ensemble, elles ont co-fondé l’association scientifique et féministe WAX Science.

Je voudrais qu'on m'efface, Anaïs Barbeau-Vallette - Chronique de Claire Augé

Je voudrais qu'on m'efface, Anaïs Barbeau-Vallette - Chronique de Claire Augé

Ce que murmurent les collines, Scholastique Mukasonga

Ce que murmurent les collines, Scholastique Mukasonga