16.7 C
Paris
samedi, avril 19, 2025
spot_img

Le PDG d’Anthropic évoque un bouton ‘quitter le travail’ pour l’IA, suscitant le scepticisme

Lors d’une récente interview, le PDG d’Anthropic, Dario Amodei, a surpris son auditoire en suggérant que les modèles d’IA avancés pourraient un jour avoir la possibilité de ‘quitter’ des tâches qu’ils jugeraient désagréables. Cette idée, qu’il a lui-même qualifiée de ‘folle’, a rapidement suscité des réactions mitigées.

Une proposition qui fait débat

Dario Amodei a partagé cette réflexion lors d’une discussion au Council on Foreign Relations, admettant que l’idée pourrait paraître insensée. ‘Si ces systèmes reproduisent les capacités cognitives humaines, peut-être méritent-ils une considération morale’, a-t-il avancé, comparant l’IA à un canard pour illustrer son point.

Un bouton pour dire non

L’idée d’un bouton permettant à l’IA de refuser une tâche a été accueillie avec scepticisme sur les réseaux sociaux. Certains y voient une anthropomorphisation excessive, arguant que l’évitement de tâches par l’IA reflète des problèmes d’entraînement plutôt qu’une forme de conscience.

Les refus, une réalité

Les plaintes concernant les refus de ChatGPT en 2023, attribués à des variations saisonnières dans les données d’entraînement, montrent que le phénomène n’est pas nouveau. Bien que l’hypothèse d’une IA ‘paresseuse’ pendant les vacances d’été n’ait jamais été confirmée, elle soulève des questions sur la nature des comportements de l’IA.

Vers une conscience artificielle ?

Si l’idée d’une IA capable de souffrir ou de ressentir de la frustration semble farfelue aujourd’hui, elle ne peut être écartée pour les modèles futurs. Kyle Fish, chercheur en bien-être de l’IA chez Anthropic, explore cette possibilité controversée, tandis qu’Amodei semble prendre la question au sérieux.

spot_img

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

- Advertisement -spot_img

Latest Articles