OpenAI a récemment dévoilé GPT-4.1, une nouvelle famille de modèles d’IA prometteuse, notamment en programmation. Cependant, cette version est sortie sans le traditionnel rapport de sécurité, soulevant des questions sur les pratiques de l’entreprise en matière de transparence et de sécurité.
Une absence qui interroge
Contrairement aux habitudes, GPT-4.1 a été lancé sans le rapport de sécurité habituel, connu sous le nom de carte modèle ou système. OpenAI a expliqué que ce modèle n’étant pas considéré comme ‘frontière’, aucun document spécifique ne serait publié.
La transparence en question
Les rapports de sécurité sont pourtant une norme dans l’industrie, permettant d’évaluer les risques et les performances des modèles. Leur absence ou leur manque de détails peut susciter des inquiétudes, surtout dans un contexte où les géants de l’IA semblent relâcher leurs standards.
OpenAI sous le feu des critiques
Cette décision intervient alors que des anciens employés et chercheurs en sécurité expriment leurs préoccupations quant aux pratiques d’OpenAI. Des allégations de réduction des ressources allouées à la sécurité et des pressions concurrentielles ajoutent à la controverse.
Performances vs Sécurité
GPT-4.1 montre des améliorations notables en efficacité et latence. Cependant, ces avancées technologiques rendent d’autant plus cruciale la nécessité d’un rapport de sécurité détaillé, selon les experts.
Un débat plus large
La question de la réglementation des rapports de sécurité en IA reste ouverte. Alors que certains plaident pour une obligation légale, d’autres, comme OpenAI, s’y opposent, préférant des engagements volontaires.