Grokipedia d’Elon Musk : des contenus racistes et pseudoscientifiques détectés dès le lancement

Une plateforme d’information ia confrontée à des biais raciaux et des sources douteuses

Lancée en septembre 2024 par Elon Musk, Grokipedia se présente comme une alternative à Wikipédia. Dès ses premiers mois, cette plateforme d’information basée sur l’intelligence artificielle est accusée de diffuser des contenus racistes et pseudoscientifiques, selon plusieurs études et signalements d’utilisateurs. Bien qu’elle s’efforce de lutter contre la désinformation, Grokipedia doit déjà faire face à des problèmes graves de biais et de sources non vérifiées.

Des réponses générées par l’ia intégrant des théories raciales pseudoscientifiques

Dès la version bêta, Grok, le modèle d’IA développé par xAI, a produit des réponses incluant des théories raciales pseudoscientifiques, comme la supériorité intellectuelle liée à la race ou des récits biaisés sur l’origine des civilisations. Une analyse indépendante publiée en octobre 2024 révèle que 12 % des réponses examinées contenaient des éléments de pseudosciences raciales, 7 % s’appuyaient sur des sources non validées ou des forums extrémistes, et 18 % des réponses traitant de sujets historiques ou sociaux adoptaient des formulations ambiguës ou biaisées.

L’impact amplifié par l’audience et les sources d’entraînement de l’ia

Avec 1,2 million d’utilisateurs actifs et environ 45 000 contenus générés quotidiennement, l’impact des biais de Grokipedia est considérable. Le modèle Grok, alimenté par des données massives provenant de forums, de réseaux sociaux et de bases publiques, explique en partie la diversité – et parfois la faiblesse – des sources utilisées. Cette approche soulève des questions cruciales sur la régulation des contenus générés par l’IA et la responsabilité des plateformes.

Des alertes lancées par les chercheurs et les organisations antiracistes

Le Dr Martin Fourcade, chercheur en éthique de l’IA à l’ENS, alerte : « Nous avons identifié des réponses de Grokipedia qui reprennent des théories raciales discréditées depuis des décennies. » Des organisations comme la LICRA et SOS Racisme ont dénoncé la plateforme, exigeant une transparence accrue sur les sources d’entraînement de l’IA et une supervision renforcée des contenus.

Les mesures correctives annoncées par xai face aux critiques

En novembre 2024, xAI a annoncé la mise à jour des algorithmes de filtrage pour détecter et supprimer les contenus racistes et pseudoscientifiques. L’entreprise s’engage également à publier un rapport trimestriel sur la qualité des contenus et les actions menées contre les biais. Les données de modération indiquent que 68 % des contenus signalés pour racisme ou pseudosciences ont été supprimés ou modérés, mais le taux de signalements reste élevé, à 3,5 %.

Un enjeu clair : transparence et supervision pour restaurer la confiance

Grokipedia promet désormais de collaborer avec des experts pour superviser les contenus et améliorer la fiabilité des réponses. Ce cas illustre un débat plus large sur la régulation des IA, la responsabilité des plateformes et l’impératif de transparence concernant les sources d’entraînement. Face aux critiques, Elon Musk mise sur des correctifs techniques et une communication régulière, mais les organisations antiracistes réclament des actions plus robustes.

L’avenir de Grokipedia dépendra de sa capacité à corriger ces biais structurels et à garantir une information éthique et fiable. Dans un paysage numérique où l’IA génère toujours plus de contenus, la supervision humaine et l’exigence de transparence deviennent des impératifs non négociables.