Les législateurs de l’État de New York ont adopté un projet de loi jeudi qui vise à empêcher les modèles d’IA frontaliers d’Openai, de Google et d’anthropic de contribuer à des scénarios de catastrophe, y compris la mort ou la blessure de plus de 100 personnes, soit plus d’un milliard de dollars en dommages et intérêts.
L’adoption de la loi sur l’augmentation représente une victoire pour le mouvement de sécurité de l’IA, qui a perdu du terrain ces dernières années alors que la Silicon Valley et l’administration Trump ont priorisé la vitesse et l’innovation. Les défenseurs de la sécurité, notamment le lauréat du prix Nobel, Geoffrey Hinton et le pionnier de la recherche sur l’IA, Yoshua Bengio, ont défendu la loi sur l’augmentation. Si elle devient loi, le projet de loi établirait le premier ensemble américain de normes de transparence juridiquement mandatées pour les laboratoires de Frontier AI.
La loi sur l’augmentation a certaines des mêmes dispositions et objectifs que le projet de loi de sécurité controversé de l’IA de Californie, SB 1047, qui a finalement été opposé au veto. Cependant, le co-sponsor du projet de loi, le sénateur de l’État de New York, Andrew Gounardes, a déclaré à TechCrunch dans une interview qu’il avait délibérément conçu la loi sur la relance de telle sorte qu’elle ne refroidit pas l’innovation entre les startups ou les chercheurs universitaires – une critique commune de SB 1047.
“La fenêtre à mettre en place des garde-corps se rétrécit rapidement étant donné la vitesse à laquelle cette technologie évolue”, a déclaré le sénateur Gounardes. «Les gens qui savent [AI] le mieux dit que ces risques sont incroyablement probables […] C’est alarmant.
La loi sur l’augmentation est désormais dirigée vers le bureau du gouverneur de New York, Kathy Hochul, où elle pourrait soit signer le projet de loi, le renvoyer pour des amendements, soit son orienter complètement.
Si elle est recommandée, le projet de loi sur la sécurité de l’IA de New York exigerait que les plus grands laboratoires d’IA au monde publient des rapports de sécurité et de sécurité approfondis sur leurs modèles d’IA frontaliers. Le projet de loi exige également que les laboratoires d’IA signalent des incidents de sécurité, tels que le comportement du modèle d’IA ou les mauvais acteurs volant un modèle d’IA, s’ils se produisent. Si les entreprises technologiques ne respectent pas ces normes, la loi sur l’augmentation permet au procureur général de New York de porter des pénalités civiles pouvant atteindre 30 millions de dollars.
La loi sur l’augmentation vise à réglementer de justesse les plus grandes entreprises du monde – qu’elles soient basées en Californie (comme Openai et Google) ou la Chine (comme Deepseek et Alibaba). Les exigences de transparence du projet de loi s’appliquent aux entreprises dont les modèles d’IA ont été formés en utilisant plus de 100 millions de dollars en ressources informatiques (apparemment, plus que tout modèle d’IA disponible aujourd’hui) et sont mis à la disposition des résidents de New York.
Bien que similaire à SB 1047, à certains égards, la loi sur la relance a été conçue pour résoudre les critiques des factures de sécurité de l’IA précédentes, selon Nathan Calvin, vice-président des affaires d’État et avocat général de Encoda, qui a travaillé sur ce projet de loi et SB 1047. Notamment, la loi sur la relance ne nécessite pas de développeurs de modèles AI pour inclure un «Kill Switch» sur leurs modèles, ni les hol le maintien de la traction AI après la réalisation de TRA pour les modèles AI pour les modèles pour les AI pour les AI.
Néanmoins, la Silicon Valley a considérablement repoussé le projet de loi sur la sécurité de l’IA de New York, le membre de l’assemblage de l’État de New York et co-sponsor de la loi sur l’augmentation, Alex Bores, a déclaré à TechCrunch. Les forages ont qualifié la résistance de l’industrie sans surprise, mais ont affirmé que la loi sur l’augmentation ne limiterait en aucune façon l’innovation des entreprises technologiques.
“Le NY Ruge Act est encore un autre projet de loi stupide de niveau d’État stupide et stupide qui ne fera de mal aux États-Unis qu’à un moment où nos adversaires se déroulent”, a déclaré Anjney Midha, partenaire général d’Andreessen Horowitz, dans un article de vendredi sur X. Andreessen Horowitz et l’incubateur de startup Y Combinator étaient parmi les adversaires les plus fierces à SB 1047.
Anthropic, le laboratoire d’IA axé sur la sécurité qui a appelé à des normes de transparence fédérales pour les sociétés de l’IA plus tôt ce mois-ci, n’a pas atteint une position officielle sur le projet de loi, a déclaré le co-fondateur Jack Clark dans un article de vendredi sur X.
Interrogé sur les critiques d’Anthropic, le sénateur de l’État Gounardes a déclaré à TechCrunch qu’il pensait qu’il «manque la marque», notant qu’il avait conçu le projet de loi de ne pas s’appliquer aux petites entreprises.
Openai, Google et Meta n’ont pas répondu à la demande de commentaires de TechCrunch.
Une autre critique courante de la loi sur l’augmentation est que les développeurs de modèles d’IA n’offriraient tout simplement pas leurs modèles d’IA les plus avancés dans l’État de New York. Ce fut une critique similaire apportée contre SB 1047, et c’est en grande partie ce qui s’est joué en Europe grâce aux réglementations difficiles du continent sur la technologie.
Assemblymember Bores a déclaré à TechCrunch que le fardeau réglementaire de la Loi sur l’augmentation était relativement léger et que, par conséquent, ne devait pas exiger des entreprises technologiques qu’ils cessent d’exploiter leurs produits à New York. Étant donné que New York a le troisième PIB des États-Unis, se retirer de l’État n’est pas quelque chose que la plupart des entreprises prendraient à la légère.
«Je ne veux pas sous-estimer la mesquine politique politique qui pourrait se produire, mais je suis très convaincu qu’il n’y a aucune raison économique pour [AI companies] pour ne pas rendre leurs modèles disponibles à New York », a déclaré Assemblembember Bores.