Un rapport tant attendu souligne que les entreprises sont ‘simplement incapables de comprendre pleinement’ les risques et les préjudices liés à l’IA. Cet article explore les dernières initiatives de la Californie pour encadrer le développement de l’intelligence artificielle tout en promouvant l’innovation.
Un nouveau cadre pour l’IA en Californie
Après le veto du gouverneur Gavin Newsom sur le projet de loi SB 1047, jugé trop rigide, un groupe de chercheurs en IA a été chargé de proposer une alternative. Leur rapport, intitulé ‘California Report on Frontier Policy’, suggère un cadre nécessitant plus de transparence et un examen indépendant des modèles d’IA.
Les risques et les opportunités de l’IA
Le rapport met en lumière l’impact potentiel des avancées de l’IA sur divers secteurs tout en soulignant l’importance de ne pas étouffer l’innovation. Il insiste sur la nécessité de garde-fous pour prévenir des préjudices graves, voire irréversibles.
La transparence et l’évaluation par des tiers
Les auteurs plaident pour une plus grande transparence, des protections pour les lanceurs d’alerte et des évaluations par des tiers. Ils critiquent l’opacité systémique de l’industrie et la réticence des entreprises à partager l’accès à leurs modèles.
Un appel à l’action
Le rapport appelle à des changements majeurs, y compris des options de signalement pour les personnes lésées par les systèmes d’IA. Il reconnaît que même les politiques de sécurité les mieux conçues ne peuvent prévenir tous les résultats négatifs.