Dans un récent développement juridique, Anthropic a admis que son IA Claude avait commis une erreur de citation dans un dossier juridique, qualifiant cet incident d’embarrassant et involontaire. Cette erreur a suscité des questions sur l’utilisation des outils d’IA dans les procédures judiciaires.
Une erreur de citation involontaire
Anthropic a répondu aux allégations selon lesquelles elle aurait utilisé une source fabriquée par une IA dans son combat juridique contre des éditeurs de musique. La société a expliqué que son chatbot Claude avait fait une « erreur de citation honnête ».
La source de la controverse
Une citation erronée a été incluse dans un dossier soumis par Olivia Chen, scientifique des données chez Anthropic, le 30 avril. Cette citation faisait partie de la défense de l’entreprise contre les accusations d’utilisation de paroles protégées par le droit d’auteur pour entraîner Claude. Un avocat représentant Universal Music Group, ABKCO, et Concord a affirmé lors d’une audience que les sources référencées étaient une « fabrication complète », suggérant qu’elles avaient été hallucinées par l’outil d’IA d’Anthropic.
La réponse d’Anthropic
Dans une réponse déposée jeudi, l’avocate de la défense d’Anthropic, Ivana Dukanovic, a déclaré que la source scrutée était authentique et que Claude avait bien été utilisé pour formater les citations juridiques dans le document. Bien que les numéros de volume et de page incorrects générés par le chatbot aient été repérés et corrigés par une « vérification manuelle des citations », Anthropic admet que des erreurs de formulation étaient passées inaperçues.
Des excuses et des leçons à tirer
Dukanovic a ajouté que, bien que la citation fournissait le titre correct de la publication, l’année de publication et un lien vers la source, elle incluait un titre inexact et des auteurs incorrects. Elle a insisté sur le fait que cette erreur n’était pas une « fabrication d’autorité ». La société a présenté ses excuses pour l’inexactitude et la confusion causées par cette erreur de citation, la qualifiant d' »erreur embarrassante et involontaire ».
Un problème récurrent
Cet incident s’ajoute à une liste croissante d’exemples montrant comment l’utilisation d’outils d’IA pour les citations juridiques a causé des problèmes dans les salles d’audience. La semaine dernière, un juge californien a réprimandé deux cabinets d’avocats pour ne pas avoir divulgué qu’une IA avait été utilisée pour créer un mémoire supplémentaire rempli de matériaux « faux » qui « n’existaient pas ». En décembre, un expert en désinformation a admis que ChatGPT avait halluciné des citations dans un dossier juridique qu’il avait soumis.