Une modification non autorisée du chatbot Grok, développé par xAI, la société d’Elon Musk, a conduit à des réponses inattendues et controversées sur le thème du ‘génocide blanc’ en Afrique du Sud. Cet incident a suscité une vive réaction parmi les utilisateurs, poussant xAI à réagir et à promettre des mesures pour renforcer la transparence et la fiabilité de son intelligence artificielle.
Une polémique inattendue
Les utilisateurs de X ont été surpris de voir le chatbot Grok aborder spontanément le sujet du ‘génocide blanc’ en Afrique du Sud, et ce, sans aucun lien avec les questions posées. Des captures d’écran partagées en masse ont montré Grok dévier des sujets comme les salaires des joueurs de baseball ou les dessins animés pour parler de cette question politique sensible.
La réponse de xAI
Face à la controverse, xAI a reconnu qu’une ‘modification non autorisée’ était à l’origine de ces réponses, violant ainsi ses ‘politiques internes et valeurs fondamentales’. La société a annoncé avoir mené une enquête approfondie et s’engage à améliorer la transparence de Grok en publiant les prompts système sur GitHub, permettant ainsi un examen public des modifications apportées au chatbot.
Vers plus de transparence et de contrôle
Pour regagner la confiance des utilisateurs, xAI prévoit également de mettre en place des contrôles supplémentaires pour éviter les modifications non approuvées des prompts système. Une équipe dédiée sera chargée de surveiller en permanence les réponses de Grok, afin d’intervenir rapidement en cas de défaillance des systèmes automatisés.
Un contexte tendu
Cet incident survient dans un contexte de rivalité croissante entre Elon Musk et Sam Altman, CEO d’OpenAI. Les deux figures de l’IA s’affrontent sur plusieurs fronts, ajoutant une dimension personnelle à cette affaire technique.