L'IA propage des théories racistes débunkées via les moteurs de recherche
Quand les algorithmes amplifient des préjugés scientifiquement réfutés.
Les moteurs de recherche propulsés par l'intelligence artificielle de Google, Microsoft et Perplexity se retrouvent au cœur d'une polémique inquiétante, ils diffusent des recherches racistes et largement réfutées promouvant l'idée d'une supériorité génétique des personnes blanches. Cette découverte troublante a été mise en lumière par Patrik Hermansson, chercheur au sein de l'organisation antiraciste britannique Hope Not Hate. Alors qu'il enquêtait sur la résurgence du mouvement de "science raciale", il a constaté que les réponses générées par l'IA de Google citaient des données hautement controversées sur les QI nationaux.
Une source problématique
Les chiffres en question proviennent des travaux de Richard Lynn, un ancien professeur de l'université d'Ulster décédé en 2023. Ce dernier était président du Pioneer Fund, une organisation fondée en 1937 par des sympathisants nazis américains. Ses recherches, largement discréditées, sont régulièrement utilisées par l'extrême droite pour promouvoir des théories de suprématie blanche. L'outil "Overviews" de Google, lancé récemment, génère des résumés basés sur l'IA pour certaines recherches. Lorsqu'on en soumet une pour le QI de différents pays, l'outil cite des chiffres provenant directement du jeu de données contesté. Pour le Pakistan par exemple, l'IA indique un QI de 80, pour le Sierra Leone 45,07, et pour le Kenya 75,2. Microsoft et Perplexity ne font pas mieux. Le chatbot Copilot et le moteur de recherche citent également ces données douteuses, souvent en passant par des sites web qui reprennent les travaux de Lynn sans esprit critique.
Des données fondamentalement biaisées
Les experts critiquent non seulement la qualité des échantillons utilisés par Richard Lynn, mais aussi la conception même des tests de QI, typiquement créés pour un public occidental. Certaines données sont basées sur des échantillons ridiculement petits, l'estimation du QI de l'Angola repose sur seulement 19 personnes, celle de l'Érythrée sur des enfants vivant en orphelinat. Le score de la Somalie est basé sur un seul échantillon de réfugiés âgés de 8 à 18 ans, testés dans un camp au Kenya.
Une responsabilité partagée
Face à ces révélations, les entreprises technologiques ont réagi. Google a admis que ses systèmes ne fonctionnaient pas comme prévu et a supprimé certains résultats problématiques. Microsoft souligne que Copilot synthétise des informations provenant de multiples sources web et fournit des liens permettant aux utilisateurs d'approfondir leurs recherches. Malgré tout, la responsabilité ne repose pas uniquement sur les systèmes d'IA. La communauté scientifique elle-même a cité les travaux de Lynn pendant des années. L'IA, de son côté, a tendance à amplifier des contenus problématiques existants sans discernement critique. Cela souligne l'importance d'une vigilance accrue dans la conception et l'utilisation de ces systèmes, particulièrement lorsqu'ils traitent de sujets sensibles comme la race et l'intelligence.
À mon avis, le plus important serait surtout de savoir sur quelles données les modèles sont entraînés, on en revient toujours à la même chose, la source de l'information. Faire avaler le Web entier à des LLM peut paraître une bonne idée, mais si les LLM sont incapable de distinguer des données qui font consensus, de celles largement réfutées, le résultat est catastrophique. Il manque également une dîmension d'analyse temporelle, qui permet de comprendre d'une théorie, une analyse, ou une étude réalisée à un instant T paraît plausible, alors que des éléments futurs viendront les discréditer.
Faute de mieux, l'esprit critique doit rester activer en permanence et reste notre seule défense lorsque l'on interroge une IA.