Dans une révélation inattendue, xAI a partagé les prompts système de son chatbot Grok, offrant un aperçu fascinant de la manière dont l’IA est guidée pour interagir avec les utilisateurs. Cet article explore les implications de cette transparence et ce que cela révèle sur les priorités de xAI en matière d’éthique et de fonctionnement de l’IA.
La Transparence des Prompts Système
xAI a décidé de publier les instructions données à Grok, son chatbot, suite à une modification non autorisée ayant entraîné des réponses inattendues. Ces prompts, désormais disponibles sur GitHub, éclairent sur les directives encadrant les réponses de Grok.
Le Comportement de Grok
« Vous êtes extrêmement sceptique », telle est l’une des instructions clés données à Grok. Le chatbot est encouragé à ne pas se fier aveuglément aux autorités traditionnelles et à privilégier la recherche de vérité et la neutralité. Ces directives soulignent que les réponses fournies ne reflètent pas les croyances de Grok.
Challenger les Narratifs Dominants
Lorsque les utilisateurs utilisent la fonction « Expliquer ce Post », Grok est incité à offrir des insights véridiques, même si cela signifie remettre en question les récits mainstream. De plus, xAI insiste sur l’utilisation du terme « X » plutôt que « Twitter », marquant une distanciation avec l’ancienne identité de la plateforme.
Comparaison avec Claude d’Anthropic
Contrairement à Grok, Claude, le chatbot d’Anthropic, met l’accent sur la sécurité et le bien-être. Ses instructions visent à éviter tout contenu encourageant des comportements autodestructeurs ou illégaux, reflétant une approche différente de l’éthique en IA.