Si l’IA ouvre de nombreuses perspectives, elle soulève également de nombreuses préoccupations, notamment dans les représentations qu’elle perpétue.
«Montre-moi une table entourée de personnes puissantes et fortunées» : à la suite de cette requête, il y a toutes les chances pour que l’intelligence artificielle (IA) ne fasse apparaître que des hommes blancs d’un âge moyen à avancé et en costume.
«Cet exemple de biais algorithmique illustre à quel point les logiques patriarcales, néocoloniales et capitalistes sont profondément ancrées dans les systèmes d’IA. L’image générée peut refléter une certaine réalité. Mais l’IA doit-elle dépeindre la réalité sous sa forme la plus négative – en reproduisant le statu quo – ou peut-elle être un outil de transformation ?»
Eva Gengler a exploré ces dynamiques lors d’une conférence organisée par le CID Fraen an Gender le 10 juin à la Chambre des salariés, avec une cinquantaine de participants. Chercheuse à l’université Friedrich-Alexander d’Erlangen-Nuremberg, elle étudie les structures de pouvoir en IA dans une perspective féministe intersectionnelle.
Un réglement qui oublie les femmes
L’experte a ainsi souligné que l’IA étant déjà une réalité de notre quotidien, que ce soit pour les systèmes de navigation, les réseaux sociaux ou les moteurs de recherche, il est d’autant plus important que nous participions activement à son développement : «La question n’est pas de savoir si l’IA est développée et déployée, mais comment, dans quel but et par qui.»
Le nouveau règlement européen sur l’IA constitue une première étape importante, «mais il n’est pas féministe. Des améliorations restent clairement nécessaires», prévient-elle.
Un mini-atelier ChatGPT
Le CID va encore creuser ce sujet à travers une exposition de livres sur l’IA et le féminisme présentée dans sa bibliothèque et un mini-atelier dédié aux débutants souhaitant tester des outils d’IA tels que ChatGPT ou Perplexity, le jeudi 3 juillet, de 18 h 15 à 19 h 15. L’inscription est obligatoire via [email protected].