16.4 C
Paris
samedi, avril 19, 2025
spot_img

Le dernier modèle d’IA de Google manque de détails clés sur la sécurité, selon les experts

Google a récemment publié un rapport technique sur les évaluations de sécurité internes de son dernier modèle d’IA, Gemini 2.5 Pro. Cependant, les experts soulignent que ce rapport manque de détails essentiels, rendant difficile l’évaluation des risques potentiels. Cet article explore les préoccupations soulevées et les implications pour la transparence et la sécurité dans le domaine de l’IA.

Un rapport technique qui laisse à désirer

Quelques semaines après le lancement de son modèle d’IA le plus puissant à ce jour, Gemini 2.5 Pro, Google a partagé les résultats de ses évaluations de sécurité internes. Pourtant, selon les experts, le manque de détails dans ce rapport rend difficile de juger des risques que pourrait présenter le modèle.

La transparence en question

Les rapports techniques sont généralement vus comme des efforts de bonne foi pour soutenir la recherche indépendante et les évaluations de sécurité. Google, cependant, adopte une approche différente de certains de ses concurrents, ne publiant des rapports que lorsqu’il considère qu’un modèle a dépassé le stade ‘expérimental’. De plus, l’entreprise ne partage pas toutes les évaluations de ‘capacités dangereuses’ dans ces documents, réservant celles-ci pour un audit séparé.

Des experts déçus

Plusieurs experts ont exprimé leur déception face au manque d’informations dans le rapport sur Gemini 2.5 Pro, notant notamment l’absence de mention du Cadre de Sécurité Frontière (FSF) de Google. Introduit l’année dernière, le FSF vise à identifier les futures capacités de l’IA pouvant causer ‘des dommages graves’.

Un engagement envers la transparence remis en question

Malgré les assurances de Google envers les régulateurs de maintenir des normes élevées en matière de tests et de rapports sur la sécurité de l’IA, la fréquence et la qualité des rapports publiés soulèvent des questions. Des experts comme Kevin Bankston voient dans cette tendance une ‘course vers le bas’ en matière de sécurité et de transparence de l’IA.

spot_img

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

- Advertisement -spot_img

Latest Articles