Google a récemment publié un rapport technique sur les évaluations de sécurité internes de son dernier modèle d’IA, Gemini 2.5 Pro. Cependant, les experts soulignent que ce rapport manque de détails essentiels, rendant difficile l’évaluation des risques potentiels. Cet article explore les préoccupations soulevées et les implications pour la transparence et la sécurité dans le domaine de l’IA.
Un rapport technique qui laisse à désirer
Quelques semaines après le lancement de son modèle d’IA le plus puissant à ce jour, Gemini 2.5 Pro, Google a partagé les résultats de ses évaluations de sécurité internes. Pourtant, selon les experts, le manque de détails dans ce rapport rend difficile de juger des risques que pourrait présenter le modèle.
La transparence en question
Les rapports techniques sont généralement vus comme des efforts de bonne foi pour soutenir la recherche indépendante et les évaluations de sécurité. Google, cependant, adopte une approche différente de certains de ses concurrents, ne publiant des rapports que lorsqu’il considère qu’un modèle a dépassé le stade ‘expérimental’. De plus, l’entreprise ne partage pas toutes les évaluations de ‘capacités dangereuses’ dans ces documents, réservant celles-ci pour un audit séparé.
Des experts déçus
Plusieurs experts ont exprimé leur déception face au manque d’informations dans le rapport sur Gemini 2.5 Pro, notant notamment l’absence de mention du Cadre de Sécurité Frontière (FSF) de Google. Introduit l’année dernière, le FSF vise à identifier les futures capacités de l’IA pouvant causer ‘des dommages graves’.
Un engagement envers la transparence remis en question
Malgré les assurances de Google envers les régulateurs de maintenir des normes élevées en matière de tests et de rapports sur la sécurité de l’IA, la fréquence et la qualité des rapports publiés soulèvent des questions. Des experts comme Kevin Bankston voient dans cette tendance une ‘course vers le bas’ en matière de sécurité et de transparence de l’IA.