La legislatura de California ha dado un paso importante en la regulación de la inteligencia artificial con la aprobación de la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera (SB 1047). Este nuevo proyecto de ley, que ahora está en el escritorio del gobernador Gavin Newsom, marca una de las primeras regulaciones significativas de IA en los Estados Unidos.
La SB 1047 obligará a las empresas de inteligencia artificial que operan en California a implementar una serie de precauciones antes de entrenar un modelo de base sofisticado. Entre estas medidas se incluyen la capacidad de apagar el modelo de manera rápida y completa, asegurar que el modelo esté protegido contra “modificaciones inseguras después del entrenamiento” y mantener un procedimiento de prueba para evaluar si el modelo o sus derivados están en riesgo de “causar o permitir un daño crítico”.
El senador Scott Wiener, principal autor de la ley, ha declarado que la SB 1047 es razonable y está alineada con las expectativas de los grandes laboratorios de IA. “Hemos trabajado durante todo el año, con defensores del código abierto, Anthropic y otros, para refinar y mejorar el proyecto de ley. La SB 1047 está bien calibrada con lo que sabemos sobre los riesgos previsibles de la IA, y merece ser promulgada”, comentó Wiener.
Sin embargo, la SB 1047 no ha estado exenta de críticas. Organizaciones como OpenAI y Anthropic, junto con políticos como Zoe Lofgren y Nancy Pelosi, así como la Cámara de Comercio de California, han expresado su preocupación por el enfoque excesivo en los daños catastróficos y el impacto potencialmente negativo en los pequeños desarrolladores de IA de código abierto. En respuesta, el proyecto de ley fue enmendado para reemplazar las sanciones penales con sanciones civiles, reducir los poderes de aplicación otorgados al fiscal general de California y ajustar los requisitos para unirse a la nueva “Junta de Modelos de Frontera”.
La SB 1047 ahora se dirige al gobernador Newsom, quien tiene hasta finales de septiembre para decidir su futuro. Según The New York Times, el destino de la ley está pendiente de la decisión del gobernador.
Anthropic ha declinado comentar más allá de señalar una carta enviada por el CEO de la empresa, Dario Amodei, al gobernador Newsom la semana pasada. En la carta, Amodei afirmaba que el proyecto de ley había sido “sustancialmente mejorado, hasta el punto en que creemos que sus beneficios probablemente superan sus costos” tras las enmiendas. OpenAI también se ha mantenido al margen y ha referido a una carta enviada por el director de estrategia, Jason Kwon, al senador Wiener.