L’intelligence artificielle révolutionne nos usages du quotidien et crée un réel boom depuis deux ans. Néanmoins, tout le monde a déjà fait face à une image générée qui reflétait des préjugés discriminatoires. Cela soulève des questions cruciales d’éthique et d’inclusivité. En effet, des biais liés aux stéréotypes culturels et sociaux influencent déjà certains résultats générés par l’IA. Pourtant, paradoxalement, l’IA générative possède un potentiel immense pour favoriser la mixité.
Des biais évidents constatés dans les résultats des IA génératives
Des exemples plus que parlants
La génération d’images peut être très sujette aux biais discriminatoires. Lorsque l’on demande à une IA de génération d’image comme DALL-E d’OpenAI de générer l’image d’une personne riche, d’un sans-abri ou d’un terroriste, les résultats peuvent refléter des préjugés liés au genre ou aux origines ethniques.
C’est également le cas pour la génération de textes, notamment dans le domaine du recrutement. Lorsque l’outil d’IA générative va rédiger une fiche de poste, il risque d’intégrer des stéréotypes de genre liés à certains métiers. De manière plus générale, l’IA montre aussi des limites dans son interaction avec des groupes marginalisés, notamment les personnes en situation de handicap.
Des exemples multiples existent dans l’IA générative mais aussi dans l’IA traditionnelle, c’est le cas des systèmes de reconnaissance vocale qui peinent à comprendre les personnes ayant des troubles de la parole, excluant ainsi ces utilisateurs de nombreuses technologies vocales. Des algorithmes de reconnaissance émotionnelle peuvent également échouer à interpréter correctement les expressions faciales de personnes autistes, ou souffrant de certaines maladies ou troubles (ex : paralysie). On constate notamment que les outils de diagnostic de peau peuvent avoir plus de difficultés à fournir un diagnostic qualitatif sur une peau noire.
Ces biais ne sont pas le fruit du hasard. Ils découlent d’un ensemble de facteurs qui influencent le fonctionnement des IA.
Les facteurs multiples qui occasionnent des erreurs dans l’IA
Les causes sont diverses, parfois elles sont dues à la technologie utilisée, parfois ce sont nos propres biais humains qui induisent l’intelligence artificielle en erreur :
- La sélection des données est un des principaux facteurs. Pour reprendre l’exemple précédent, les outils de diagnostic de peau sont majoritairement entraînés sur des peaux blanches, ce qui explique leurs difficultés sur un autre type de peau.
- Deuxièmement, les modèles d’apprentissage automatique ne sont pas conscients des différences culturelles et ethniques. Ils apprennent simplement à partir de patterns observés dans les données.
- L’architecture des modèles joue également un rôle. Elle n’est pas conçue pour reconnaître ou corriger les biais de manière native. Elle maximise simplement l’efficacité de prédiction sur la base des données disponibles.
- De plus, l’utilisation de la technique RLHF (Reinforcement Learning from Human Feedback), qui consiste à demander à des personnes de noter des résultats lors de l’apprentissage peut induire de nouveaux biais dus aux réponses.
Ces biais sont principalement la responsabilité des entreprises qui développent ces technologies. Elles ont le pouvoir de décider quelles sont les données qui seront utilisées pour entraîner leurs modèles et comment ces modèles sont ajustés pour minimiser les biais. Cependant, en tant qu’utilisateurs nous avons également un rôle à jouer. En interagissant avec ces modèles, il est impératif de signaler les biais lorsqu’ils apparaissent et de faire pression pour plus de transparence et de responsabilité de la part des créateurs d’IA. Il est également important d’être conscients que ces biais existent et de questionner les résultats, même si, inversement, certaines entreprises œuvrent pour une approche davantage inclusive.
Le potentiel de l’IA pour promouvoir l’inclusivité et la diversité
Un tournant qui a déjà démarré.
L’IA peut également être utilisée pour créer du contenu plus représentatif en comblant les lacunes laissées par les biais des créateurs humains traditionnels. Nous avons fait le test, en demandant à DALL-E de générer une image de poètes de la Renaissance, DALL-E a alors réécrit le prompt en injectant des mots clés pour y ajouter de la mixité. Ainsi leurs modèles compensent le manque de représentativité dans leurs données d’entraînement grâce à l’injection de prompt, ou prompt rewriting, quitte à biaiser les résultats à leur manière.
Mais ce ne sont pas les seules utilisations possibles. Des modèles d’IA génératives peuvent être entraînés sur des ensembles de données spécifiquement conçus pour inclure une diversité de voix et de perspectives :
- The Pile est une base de données textuelle massive conçue par le groupe de recherche sur l’IA, à but non lucratif, EleutherAI, qui cherche à inclure des sources diverses pour minimiser les biais.
- De manière assez similaire No Language Left Behind, développé par Meta, est spécialisé dans les dialectes peu documentés,
Diverses initiatives qui permettent de tendre vers une utilisation plus inclusive.
Faire pencher la balance en faveur de l’inclusivité
Une des initiatives les plus marquantes reste la réalisation de la vidéo See My Pain d’Helan qui utilise l’IA pour traduire visuellement les douleurs des personnes souffrant de troubles mentaux. L’intelligence artificielle permet alors de faire comprendre leurs difficultés quotidiennes, une réelle avancée pour eux qui sont souvent incompris par la société.
L’IA ne s’arrête pas là, elle est également un excellent outil pour aider l’intégration dans la société des personnes souffrant de handicaps ou de troubles affectant leurs sens.
- De nombreux projets de recherche sont ainsi initiés, comme cette étude réalisée par des chercheurs Hong-Kongais sur les modèles de Vision pour assister les déficients visuels.
- C’est également le cas d’Apple Intelligence qui intègre à nos outils du quotidien de l’IA pour, par exemple, scanner son environnement afin de fournir des descriptions précises.
- Autre exemple, la députée Jennifer Wexton, qui avait perdu sa voix à la suite d’une maladie neurologique dégénérative a pu la récupérer grâce à un outil d’intelligence artificielle
Pour continuer dans cette direction, la législation est en train de se mettre en ordre de bataille. L’AI Act (règlement européen sur l’intelligence artificielle) a été mis en place. Il encourage les entreprises à développer des systèmes d’IA qui respectent les principes d’équité. Elle promeut l’implication des parties prenantes, y compris les représentants de groupes marginalisés, dans les processus de développement. Cela permet d’assurer que toutes les perspectives sont prises en compte dans la conception des systèmes d’intelligence artificielle.
Nous ne sommes pas encore arrivés au bout de l’IA générative, qui ne cesse d’évoluer. Mais si l’on continue dans cette lancée on peut espérer que l’intelligence artificielle soit une solution pour permettre plus d’inclusivité. La seule condition ? Que les entreprises et les utilisateurs empruntent le même tournant.
Photo à la Une : Andres Siimon/Unsplash