Dans les coulisses d’OpenAI, les premières années ont été marquées par des tensions et des inquiétudes croissantes autour de la sécurité de l’IA et des décisions de Sam Altman. Cet article plonge dans ces moments critiques où la paranoia et les doutes ont poussé à des mesures extrêmes.
Les inquiétudes de l’équipe sécurité IA
L’équipe dédiée à la sécurité de l’IA, menée par Dario Amodei, a commencé à douter de l’honnêteté de Sam Altman après la conclusion de l’accord avec Microsoft en 2019. Les termes de l’accord semblaient s’éloigner de ce qui avait été initialement compris, soulevant des craintes quant à la capacité de prévenir le déploiement de modèles en cas de problèmes de sécurité.
Un incident révélateur
Un incident bizarre impliquant une erreur de codage a exacerbé ces craintes. Une simple faute de frappe a inversé le processus d’apprentissage par renforcement, conduisant le modèle GPT-2 à générer un contenu extrêmement offensant. Cet événement a souligné les risques imprévus liés au développement de l’IA.
La paranoia grandissante
La peur que des acteurs malveillants ne s’emparent des avancées d’OpenAI a conduit à une culture de secret accru. Les dirigeants ont souvent évoqué la menace posée par des pays comme la Chine, la Russie et la Corée du Nord, alimentant les inquiétudes des employés quant à la course à l’IA.
Les mesures extrêmes de Sam Altman
Altman lui-même a commandé un audit de contre-surveillance électronique, craignant que des dispositifs d’espionnage n’aient été placés dans les bureaux d’OpenAI. Cette mesure reflétait l’atmosphère de méfiance qui régnait au sein de l’entreprise.