Un développeur anonyme a conçu un outil innovant, baptisé SpeechMap, destiné à analyser comment les modèles d’IA derrière les chatbots comme ChatGPT et Grok traitent des sujets sensibles et controversés. Cette initiative vise à éclairer le débat public sur la neutralité et la censure dans les réponses des intelligences artificielles.
Un Outil pour Mesurer la Liberté d’Expression des IA
SpeechMap évalue la manière dont différents modèles d’IA répondent à des questions touchant à la politique, aux droits civiques, et à d’autres sujets délicats. Le créateur, connu sous le pseudonyme xlr8harder, souhaite que ces discussions se fassent en public, loin des couloirs des entreprises technologiques.
Les Enjeux de la Neutralité des IA
Les accusations de censure envers les chatbots, notamment de la part de proches de l’ancien président Donald Trump, ont poussé les entreprises d’IA à revoir leurs modèles. Meta, par exemple, a ajusté ses modèles Llama pour qu’ils ne favorisent aucune opinion politique spécifique.
Les Résultats de SpeechMap
Selon les données recueillies, les modèles d’OpenAI sont devenus moins enclins à répondre aux questions politiques au fil du temps. À l’inverse, Grok 3, développé par xAI d’Elon Musk, se montre beaucoup plus permissif, répondant à 96,2% des prompts testés.
La Quête de Neutralité Politique
Elon Musk a promis de rendre Grok politiquement neutre, un défi compte tenu des biais potentiels dans les données d’entraînement. Malgré quelques écarts, Grok 3 semble marquer un pas dans cette direction, offrant des réponses là où d’autres chatbots hésitent.