16 December, 2019
HomeTribuneLes algorithmes sont-ils sexistes ? (à moins qu’il ne s’agisse de la société…)

Les algorithmes sont-ils sexistes ? (à moins qu’il ne s’agisse de la société…)

Nos applications sont-elles sexistes ?

Depuis quelques années maintenant, nous interagissons avec l’Intelligence artificielle quotidiennement. À mesure que les applications se diffusent, les biais de genre se font de plus en plus apparents. Les avatars des agents conversationnels, ces petites voix numériques que nous interpellons pour avoir de l’aide, sont pour la plupart féminins comme Siri, Cortana ou Alexa.

Même quand une voix d’homme peut être choisie, comme pour Siri, c’est la voix de femme qui est de loin la plus célèbre de toute façon, Siri, baptisée ainsi en 2012, signifie en norvégien : « femme magnifique qui vous mène vers la victoire ». La grande hégémonie des équipes de développeurs (des hommes blancs hétérosexuels de catégories socioprofessionnelles supérieures) en est la cause. Il n’est pas étonnant qu’ils aient eu envie de créer un agent conversationnel qui possède une voix féminine au timbre agréable. Leur choix en soi n’a rien de sexiste. Il le devient quand cette équipe d’hommes se pense universelle et oublie que leurs créations ne seront pas perçues de la même manière par toutes et tous. C’est ainsi qu’il a fallu des années pour que les applications de santé incluent les cycles menstruels alors que presque la moitié des usager·es est directement concernée… mais seulement 10% des développeurs.

Un rapport de l’UNESCO réalisé en 2019 s’inquiète des effets que les agents conversationnels produisent sur les représentations. Le titre du rapport est évocateur : « I’d blush if I could », je rougirais si je le pouvais. C’est ce que Siri répondait quand l’utilisateur disait : « Tu es une salope », alors qu’Alexa remerciait pour le feedback. Ces dérives ont été aujourd’hui corrigées et on peut arguer que ce ne sont ni Siri ni Alexa qui ont suscité les insultes sexistes. Mais comme le dit le rapport : « La soumission et la servilité exprimée par beaucoup d’assistants digitaux, qui prennent la voix de jeunes femmes, illustrent bien comment les biais de genre peuvent être codés au sein de produits technologiques ».

C’est dans les outils d’aide à la décision que la question des biais de genre est probablement la plus sensible. L’affaire de l’IA sexiste d’Amazon est devenue un cas d’école. En 2014, Amazon tente de mettre au point un logiciel de recrutement automatisé. Le logiciel a été nourri par les CV reçus par le groupe pendant dix ans. Dès 2015, un problème apparait : l’IA a tendance à écarter les femmes. Au bout de trois ans, l’expérience est arrêtée. Si on regarde le problème en face, il faut admettre qu’il ne s’agit pas d’un bug dans l’algorithme : l’IA se contente de reproduire la réalité du monde du travail en privilégiant l’embauche des hommes, en particulier dans la Tech ou aux postes à responsabilité. Il est difficile d’accuser de sexisme un logiciel qui a parfaitement su reproduire la culture d’entreprise qu’on lui demande d’analyser. Il faut donc bien admettre que l’IA est un formidable analyseur et amplificateur de nos représentations.

Les outils d’aide à la décision ouvrent la porte en grand aux biais de genre… En se basant uniquement sur les données de l’existant, l’IA produit des prédictions qui permettront de les faire perdurer, voire, de les renforcer (puisque le volume de données sexistes générées augmente). Puisque nous savons qu’à CV équivalents, les hommes sont mieux payés que les femmes, qu’à dossiers équivalents, les prêts sont plus volontiers accordés aux projets d’entreprise portés par des hommes que par des femmes, qu’à carrières équivalentes, les hommes sont plus souvent promus ou sollicités pour siéger dans des lieux d’influence que les femmes, qu’à bulletins scolaires équivalents, les garçons de milieux favorisés sont plus facilement orientés en école d’ingénieur que les filles et qu’en cas de viol, le crime est généralement requalifié en agression sexuelle… il est facile d’imaginer quels types de décisions l’IA va proposer de prendre dans cette liste d’exemples qui est loin d’être restrictive.

La Tech va-t-elle indéfiniment rester un mode d’hommes, se renforçant de l’intérieur ? Peut-être pas. Automne 2017, #metoo explose sur les réseaux et le plus grand secret de polichinelle du monde est enfin révélé : les agressions sexuelles envers les femmes sont très fréquentes partout, tout le temps et le sexisme existe toujours, de manière massive. L’univers de la Tech en prend également la mesure. Pour la première fois, depuis 20 ans, de nombreuses institutions mettent en place des dispositifs innovants et ne se contentent plus de déplorer que les filles n’osent pas.

La fondation Femmes@numérique est un accélérateur d’actions incitatives et un dispositif permettant enfin la mise en commun de ces actions. Le partage du pouvoir numérique s’amorce… espérons qu’il touche les femmes et hommes de tous milieux sociaux : tel sera probablement la nouvelle ligne de la fracture numérique.

Isabelle Collet, Professeure à l’Université de Genève

Sarasvati vous invite : Isabelle Collet est nominée personnalité du monde de l’IT !

Chaque fin d’année, depuis 6 ans, Le Monde Informatique invite ses lecteurs à distinguer une personnalité du monde de l’IT et du numérique qui s’est illustrée au cours des derniers mois par ses actions ou ses projets, à la tête d’une direction des systèmes d’information, comme responsable académique, institutionnel ou fournisseur de solutions informatiques. Qui est selon vous la personnalité IT 2019 parmi celles que nous proposons à vos suffrages cette année ? Votez !

Share

Rejoignez la Lettre des Femmes !