Dans un mouvement audacieux pour encadrer l’essor des intelligences artificielles, l’État de New York a adopté une loi visant à prévenir les scénarios catastrophiques impliquant des modèles d’IA avancés. Cette initiative marque une étape clé dans la régulation des technologies émergentes.
Une Loi Historique pour la Sécurité de l’IA
Les législateurs de New York ont franchi un pas significatif en adoptant le RAISE Act, une loi destinée à empêcher que les modèles d’IA frontaliers ne contribuent à des scénarios désastreux. Ces scénarios incluent des pertes humaines massives ou des dommages économiques dépassant le milliard de dollars.
Transparence et Responsabilité au Cœur de la Loi
Portée par des figures emblématiques comme Geoffrey Hinton et Yoshua Bengio, cette loi établit les premiers standards de transparence légaux pour les laboratoires d’IA. Elle exige des rapports détaillés sur la sécurité des modèles et la notification des incidents, sous peine de lourdes amendes.
Un Équilibre Délicat entre Innovation et Sécurité
Contrairement à des propositions précédentes critiquées pour leur impact sur l’innovation, le RAISE Act a été conçu pour éviter de freiner la recherche et le développement. Son co-auteur, le sénateur Andrew Gounardes, souligne l’urgence d’agir face aux risques croissants.
Réactions Contrastées de l’Industrie
Si certains acteurs technologiques dénoncent une entrave à la compétitivité, d’autres reconnaissent la nécessité de garde-fous. La loi, maintenant entre les mains du gouverneur Kathy Hochul, pourrait redéfinir les standards de sécurité dans le domaine de l’IA.