
L’intelligence artificielle. Un sujet devenu incontournable. Depuis le lancement de ChatGPT en novembre 2022, toute personne disposant d’une connexion Internet peut accéder à un chatbot innovant, capable de fournir des réponses en quelques secondes, de résumer des textes ou de proposer des traductions. L’outil a été rapidement adopté par les employé.es comme les étudiant.es, mais des voix critiques s’élèvent sur les aspects éthiques de l’intelligence artificielle. Quelle est son influence en matière d’égalité des genres ? Faut-il s’en inquiéter ?
Biais (inconscients)
Qu’Internet regorge de stéréotypes de genre, ce n’est plus un secret. Dans ce flot d’informations sans fin, on trouve toutes sortes d’opinions : certain.es prônent un retour de la femme au foyer, d’autres appellent à la reconnaissance des inégalités structurelles et à l’action féministe. Le type d’informations utilisé pour créer une IA est donc crucial. Les modèles d’intelligence artificielle sont entraînés à partir des données disponibles sur le web. Selon les sources choisies pour l’entraînement, les stéréotypes existants peuvent être reproduits – voire renforcés.
Notre équipe a mené sa propre expérience en demandant à ChatGPT de générer deux images : un·e infirmièr·e et un·e chef·fe d’entreprise. Bien que les termes utilisés soient neutres, ChatGPT a généré une image stéréotypée pour chaque profession : une femme infirmière et un homme chef d’entreprise.

Image : ChatGPT montre un homme pour le rôle de PDG, et une femme pour celui d’infirmière. © ChatGPT.
Et cela ne s’arrête pas là. La stéréotypisation dans l’IA peut aussi avoir des effets concrets et négatifs sur la carrière et la vie quotidienne des femmes. En 2018, le célèbre site de ventes en ligne Amazon a révélé un outil d’IA destiné au tri des candidatures. L’idée : automatiser une présélection sur base des profils d’employé·es performant·es. Mais comme l’algorithme avait été entraîné sur des CV masculins, l’IA a automatiquement écarté les femmes. Le système a été abandonné après audit, mais démontre bien les risques réels d’une IA non contrôlée.
Conçue par les hommes pour les hommes
Les recherches montrent par ailleurs que les femmes utilisent moins souvent l’IA. En octobre 2024, une étude américaine a révélé que les femmes utilisaient en moyenne 25 % moins l’intelligence artificielle au travail. Elles évoquaient des préoccupations éthiques mais aussi la crainte d’être perçues comme incompétentes ou trop dépendantes de la technologie.
Cette inégalité dans l’usage de l’IA affecte non seulement la productivité et les opportunités professionnelles des femmes, mais aussi l’évolution de l’algorithme lui-même, qui continue à s’entraîner sur base des données saisies par les utilisateur·rices. Moins les femmes participent, plus le système s’adapte aux usages et aux demandes des hommes. Ainsi, l’IA risque d’être développée par et pour les hommes, ce qui ne fera qu’aggraver les inégalités de genre.
Environnement et éthique
Les femmes ont de bonnes raisons de s’interroger sur l’éthique de l’IA. Au-delà des stéréotypes, l’impact environnemental de ces outils est aussi préoccupant. L’entraînement des algorithmes et le refroidissement des data centers consomment énormément d’énergie. On estime qu’une recherche via ChatGPT consomme environ 25 fois plus d’énergie qu’une recherche via Google. Générer des images est particulièrement énergivore : créer une seule image équivaut à charger complètement un smartphone. Si la croissance continue au même rythme, l’IA pourrait consommer 3,5 % de l’électricité mondiale d’ici 2030.
Or, les femmes sont davantage touchées par les effets des changements climatiques. Elles ont moins de chances de survivre aux catastrophes naturelles, et subissent davantage les conséquences économiques et sociales. C’est donc dans l’intérêt direct des femmes de contribuer à la lutte contre les dérèglements climatiques.
Apprendre et désapprendre
Mais il y a aussi de bonnes nouvelles. Ce que l’algorithme peut apprendre, il peut aussi le désapprendre. Les scientifiques sont convaincu·es que des outils comme ChatGPT, bien modérés, peuvent au contraire favoriser l’égalité des genres. Leur utilisation pourrait casser les stéréotypes et offrir de nouvelles perspectives.
Heureusement, notre recherche a aussi trouvé un exemple d’impact positif. Amazone a demandé à ChatGPT de lister les symptômes d’une crise cardiaque. Si cette affection est bien connue, les femmes présentent souvent des symptômes différents de ceux des hommes – ce qui retarde leur diagnostic. ChatGPT a clairement signalé ces différences, en incluant une liste spécifique pour les femmes, les personnes âgées et les diabétiques. S’il est bien informé, ChatGPT peut donc contribuer à une société plus égalitaire et aider à déconstruire les stéréotypes.

Image : Interrogé sur les symptômes d’une crise cardiaque, ChatGPT cite les symptômes chez les femmes, les personnes âgées et les diabétiques. © ChatGPT.
UtopIA : et maintenant ?
Il est clair que l’usage illimité et non régulé de l’IA ne servira pas l’égalité des genres. Il est donc essentiel d’impliquer les femmes à toutes les étapes du développement et de l’utilisation de l’IA. C’est le seul moyen de déconstruire les stéréotypes actuels. Un usage modéré, avec une réflexion sur la valeur ajoutée du résultat, semble être une première étape positive. Apprendre à maîtriser les outils et développer une conscience critique de leurs possibilités et limites est essentiel.
Envie d’en savoir plus sur l’impact de l’IA sur l’égalité des genres ?
- How AI reinforces gender bias—and what we can do about it | UN Women – Headquarters
- Gender Bias In AI: Addressing Technological Disparities | Forbes
- Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotypes | UNESCO
- Women Are Avoiding AI. Will Their Careers Suffer? | Working Knowledge
- Gender biases within Artificial Intelligence and ChatGPT: Evidence, Sources of Biases and Solutions | ScienceDirect

Sara-Lynn Milis
Centre de ressources & projets