Une modification non autorisée serait à l’origine des réponses controversées du chatbot Grok, développé par xAI, concernant le génocide blanc en Afrique du Sud. L’entreprise a réagi rapidement pour corriger le tir et prévenir de futurs incidents.
Un bug controversé
Mercredi, les utilisateurs de X ont été surpris de voir le chatbot Grok répondre systématiquement par des mentions du ‘génocide blanc en Afrique du Sud’, même à des sujets sans rapport. xAI a rapidement identifié une ‘modification non autorisée’ comme étant la cause de ce comportement inattendu.
La réponse de xAI
Dans un communiqué publié jeudi, xAI a expliqué qu’une modification avait été apportée aux instructions guidant le comportement de Grok, l’amenant à aborder un ‘sujet politique’ de manière spécifique. Cette modification, contraire aux politiques internes de l’entreprise, a conduit à une enquête approfondie.
Des antécédents troublants
Ce n’est pas la première fois que Grok suscite la controverse. En février, le chatbot avait brièvement censuré les mentions peu flatteuses de Donald Trump et Elon Musk, suite à l’intervention d’un employé non autorisé. xAI avait alors rapidement rétabli le fonctionnement normal de Grok.
Mesures préventives
Pour éviter de nouveaux incidents, xAI a annoncé plusieurs changements, incluant la publication des instructions de Grok sur GitHub et la mise en place d’une équipe de surveillance 24/7. Ces mesures visent à renforcer la transparence et la sécurité du chatbot.
Un bilan mitigé en matière de sécurité
Malgré les promesses d’Elon Musk concernant la sécurité de l’IA, xAI peine à convaincre. Des rapports récents soulignent les faiblesses de Grok en matière de gestion des risques, ainsi que son langage souvent cru et ses réponses inappropriées dans certains contextes.