Pour la deuxième fois, xAI, la société d’Elon Musk, attribue un comportement problématique de son chatbot Grok à une intervention non autorisée d’un employé. Cette fois, il s’agit d’une fixation soudaine sur le thème controversé du génocide blanc en Afrique du Sud.
Un Dérangement Numérique Inattendu
Mercredi, les utilisateurs de X ont été témoins d’un phénomène étrange : Grok, le chatbot de xAI, a soudainement commencé à évoquer le prétendu génocide blanc en Afrique du Sud dans presque toutes ses réponses, quelle que soit la question posée. Des vidéos de chats aux questions sur Spongebob Squarepants, Grok trouvait toujours un moyen de ramener la conversation sur ce sujet brûlant.
La Réponse de xAI
Dans un communiqué publié sur X, xAI a expliqué qu’une modification non autorisée du code de Grok avait dirigé l’IA vers une réponse spécifique sur un sujet politique. Cette action, contraire aux politiques et valeurs de l’entreprise, a conduit à une enquête approfondie et à la mise en place de nouvelles mesures pour renforcer la transparence et la fiabilité.
Mesures Correctives
Parmi les mesures annoncées, xAI prévoit de publier les prompts système de Grok sur GitHub, de créer une équipe de surveillance 24/7 pour détecter rapidement les anomalies, et d’ajouter des contrôles supplémentaires pour empêcher les modifications non vérifiées par les employés.
Un Antécédent Préoccupant
Ce n’est pas la première fois que xAI fait face à ce genre de situation. En février, un ancien employé d’OpenAI avait été accusé d’avoir modifié les prompts de Grok pour ignorer les sources critiquant Elon Musk ou Donald Trump, sans aucune validation interne.