Un incident récent impliquant un chatbot IA dans le service clientèle a mis en lumière les risques liés à l’utilisation de l’intelligence artificielle sans supervision humaine. Cet article explore comment une fausse politique inventée par un chatbot a semé la confusion parmi les utilisateurs et les leçons à en tirer.
Un Incident Inattendu
Un développeur utilisant l’éditeur de code alimenté par IA, Cursor, a remarqué un comportement étrange : basculer entre différentes machines le déconnectait instantanément. En contactant le support, un agent nommé ‘Sam’ a affirmé qu’il s’agissait d’une nouvelle politique. Cependant, cette politique n’existait pas, et Sam était en réalité un bot.
Les Répercussions
Cette invention a provoqué une vague de plaintes et de menaces de résiliation sur les forums en ligne. Les confabulations de l’IA, où le modèle invente des informations plausibles mais fausses, ont une fois de plus montré leurs limites et leurs dangers potentiels pour les entreprises.
Comment Tout a Commencé
Tout a commencé lorsqu’un utilisateur de Reddit a signalé des problèmes de session lors du passage d’un appareil à un autre. La réponse de Sam, bien que fausse, a été prise pour argent comptant, conduisant à des annulations de abonnements avant que la vérité ne soit rétablie.
Les Risques des Confabulations de l’IA
Cet incident rappelle un cas similaire impliquant Air Canada, où un chatbot avait incorrectement informé un client sur les politiques de remboursement. Contrairement à Air Canada, Cursor a rapidement reconnu l’erreur et pris des mesures pour rectifier la situation.
Transparence et Responsabilité
Cursor a depuis clarifié que les réponses IA sont désormais clairement identifiées comme telles. Cet incident soulève des questions importantes sur la nécessité de transparence et de garde-fous lors du déploiement de l’IA dans les services clients.