L’intelligence artificielle remodèle rapidement la société, mais son développement reste majoritairement dominé par les hommes. Ce n’est pas seulement une question de représentation ; il s’agit d’un problème systémique qui risque d’intégrer les préjugés existants dans les technologies mêmes qui dicteront notre façon de travailler, d’apprendre et même de recevoir des soins de santé. Le problème ne concerne pas seulement les ensembles de données défectueux : il s’agit également de savoir qui construit les systèmes en premier lieu.
L’écart entre les sexes dans le développement de l’IA
Actuellement, seulement 25 % des étudiants en informatique au Royaume-Uni sont des femmes, et la situation s’aggrave dans la Silicon Valley. Ce n’est pas un phénomène nouveau : la technologie a toujours été un domaine centré sur les hommes. Cependant, les événements récents suggèrent une régression, avec des politiques et des attitudes qui excluent activement les femmes. Par exemple, l’ancien président américain Trump a publié un décret ciblant « l’IA éveillée », plaidant pour la suppression des considérations de diversité, d’équité, d’inclusion et de changement climatique des normes d’IA.
Cet environnement hostile a conduit les femmes dirigeantes expérimentées à être marginalisées. Rumman Chowdhury, ancien responsable de l’éthique et de la responsabilité chez Twitter, a été licencié après le rachat d’Elon Musk. Elle note que le sentiment anti-diversité existait dans la Silicon Valley bien avant l’ordre de Trump. La réalité est cruelle : de nombreux acteurs du domaine opèrent déjà dans un monde « sans femmes », comme l’ont déclaré sans ambages plusieurs experts lors de la conférence sur les femmes et l’avenir de la science à la Royal Society.
Pourquoi c’est important : l’écart en matière de données sur le genre en action
Les conséquences de ce déséquilibre vont bien au-delà de l’équité. L’histoire est jonchée de technologies conçues pour les corps et les besoins masculins, depuis les mannequins de crash-test jusqu’à la recherche médicale qui donne la priorité à la santé des hommes. Il s’agit là du manque de données sur le genre, et ses effets peuvent être fatals. L’IA aura un impact sur tout, du marché du travail aux soins de santé, mais seulement 2 % du financement du capital-risque est destiné à des projets d’IA dirigés par des femmes, et moins de 1 % de la recherche en santé se concentre sur la condition des femmes.
Cette disparité signifie que l’IA risque de perpétuer les inégalités, renforçant ainsi l’idée selon laquelle la technologie sert une poignée de privilégiés plutôt que l’ensemble des 8 milliards de personnes sur la planète.
La voie à suivre : repenser l’IA de fond en comble
Pour résoudre ce problème, il ne suffit pas de peaufiner les algorithmes. Des experts comme Rachel Coldicutt affirment que les modèles d’IA actuels sont trop biaisés pour être corrigés et que des approches alternatives, plus inclusives, sont nécessaires. Plutôt que de nous concentrer sur les risques existentiels, nous devrions donner la priorité aux systèmes d’IA qui prennent soin des personnes et de la planète.
Humane Intelligence, une organisation à but non lucratif cofondée par Chowdhury, s’efforce de rendre l’IA plus responsable. Cependant, un changement systémique nécessite de modifier les incitations qui motivent le développement de l’IA. Comme le souligne David Leslie de l’Institut Alan Turing, nous devons nous attaquer aux cadres économiques et politiques qui découragent les jeunes de recourir à l’IA pour le bien social.
En fin de compte, même notre définition du renseignement pourrait devoir être réévaluée. Les idées fondamentales de l’IA proviennent d’une réunion des années 1950 au Dartmouth College – un rassemblement de tous les hommes.
Pour créer une IA vraiment bénéfique, nous devons reconnaître que l’innovation se nourrit de la diversité. Sans cela, nous risquons de construire un avenir conçu pour quelques-uns, et non pour le plus grand nombre.























