Dans un mouvement qui a surpris beaucoup, les républicains ont inséré une clause dans le projet de loi de réconciliation budgétaire visant à interdire toute régulation de l’intelligence artificielle par les États et les gouvernements locaux pour une période de dix ans. Cette décision, largement critiquée, pourrait avoir des implications profondes sur la manière dont l’IA est gérée et régulée aux États-Unis.
Une Clause aux Conséquences Larges
La proposition, introduite par le représentant Brett Guthrie du Kentucky, stipule qu’aucun État ou subdivision politique ne pourra appliquer de lois ou régulations concernant les modèles d’IA, les systèmes d’IA, ou les systèmes de décision automatisés pendant dix ans à compter de la promulgation de cette loi. Cette formulation large menace de rendre inapplicables plusieurs lois étatiques existantes et proposées, conçues pour protéger les citoyens contre les risques potentiels de l’IA.
Impact sur les Lois Étatiques
Parmi les lois touchées, on compte celle de la Californie exigeant que les prestataires de santé divulguent l’utilisation de l’IA générative dans leurs communications avec les patients, ainsi que la loi new-yorkaise de 2021 imposant des audits de biais pour les outils d’IA utilisés dans les décisions d’embauche. De plus, une loi californienne prévue pour 2026, obligeant les développeurs d’IA à documenter publiquement les données utilisées pour entraîner leurs modèles, pourrait également être affectée.
Réactions et Conséquences Potentielles
Cette mesure a déjà suscité des critiques de la part de groupes de sécurité technologique et de certains démocrates, qui y voient un cadeau à l’industrie technologique au détriment de la protection des consommateurs. Elle pourrait également limiter la capacité des États à allouer des fonds fédéraux pour des programmes d’IA qui ne s’alignent pas sur les priorités technologiques de l’administration actuelle.