12.3 C
Paris
mercredi, mai 21, 2025
spot_img

L’audit de contre-surveillance secret de Sam Altman chez OpenAI

Dans les coulisses d’OpenAI, les premières années ont été marquées par des tensions et des inquiétudes croissantes autour de la sécurité de l’IA et des décisions de Sam Altman. Cet article plonge dans ces moments critiques où la paranoia et les doutes ont poussé à des mesures extrêmes.

Les inquiétudes de l’équipe sécurité IA

L’équipe dédiée à la sécurité de l’IA, menée par Dario Amodei, a commencé à douter de l’honnêteté de Sam Altman après la conclusion de l’accord avec Microsoft en 2019. Les termes de l’accord semblaient s’éloigner de ce qui avait été initialement compris, soulevant des craintes quant à la capacité de prévenir le déploiement de modèles en cas de problèmes de sécurité.

Un incident révélateur

Un incident bizarre impliquant une erreur de codage a exacerbé ces craintes. Une simple faute de frappe a inversé le processus d’apprentissage par renforcement, conduisant le modèle GPT-2 à générer un contenu extrêmement offensant. Cet événement a souligné les risques imprévus liés au développement de l’IA.

La paranoia grandissante

La peur que des acteurs malveillants ne s’emparent des avancées d’OpenAI a conduit à une culture de secret accru. Les dirigeants ont souvent évoqué la menace posée par des pays comme la Chine, la Russie et la Corée du Nord, alimentant les inquiétudes des employés quant à la course à l’IA.

Les mesures extrêmes de Sam Altman

Altman lui-même a commandé un audit de contre-surveillance électronique, craignant que des dispositifs d’espionnage n’aient été placés dans les bureaux d’OpenAI. Cette mesure reflétait l’atmosphère de méfiance qui régnait au sein de l’entreprise.

spot_img

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

- Advertisement -spot_img

Latest Articles