California y la primera ley estatal de IA avanzada en EE. UU.

California y la primera ley estatal de IA avanzada en EE. UU.

 

La norma central es la Transparency in Frontier Artificial Intelligence Act, aprobada como Senate Bill 53, una ley estatal que posiciona a California como el primer estado de Estados Unidos en establecer obligaciones legales específicas para desarrolladores de inteligencia artificial avanzada.

Esta legislación fue sancionada en 2025 y constituye un hito porque traslada principios éticos y técnicos de gobernanza de la IA a exigencias jurídicas exigibles, algo que hasta ahora solo existía en recomendaciones o marcos voluntarios.

¿Qué regula concretamente la SB-53?

La ley se aplica a los denominados “frontier models” (modelos de frontera), definidos como sistemas de IA entrenados con capacidades computacionales extraordinarias, capaces de generar impactos significativos a escala social, económica o de seguridad.

Entre sus ejes centrales, destacan:

1. Transparencia obligatoria

Los desarrolladores alcanzados por la norma deben publicar y mantener actualizados informes públicos que describan:

Sus políticas internas de seguridad.

Los procesos de evaluación y mitigación de riesgos.

Los estándares técnicos y éticos utilizados durante el entrenamiento y despliegue del modelo.

Esto introduce el concepto de transparencia activa, superando el modelo tradicional de autorregulación tecnológica.

2. Enfoque jurídico del riesgo

La SB-53 incorpora una noción inédita en la legislación estadounidense: el “riesgo catastrófico”, que comprende escenarios en los que un sistema de IA pueda:

Provocar muertes masivas.

Generar daños económicos a gran escala.

Facilitar el desarrollo de armas o ataques de alto impacto.

La ley obliga a identificar, documentar y reportar este tipo de riesgos antes y después de la implementación del sistema.

3. Reporte obligatorio de incidentes

Las empresas deben notificar incidentes graves relacionados con el funcionamiento de la IA a las autoridades estatales competentes, estableciendo un paralelismo con los regímenes de reporte existentes en sectores como energía, transporte o salud.

4. Protección a denunciantes

La norma incluye protecciones legales para empleados que alerten sobre fallas, omisiones o riesgos relevantes en sistemas de IA, reforzando mecanismos de control interno y responsabilidad corporativa.

5. Régimen sancionatorio

El incumplimiento de las obligaciones previstas puede derivar en acciones civiles y sanciones económicas, bajo la supervisión de la Fiscalía General del estado.

¿Por qué esta ley genera tensión con el gobierno federal?

El avance normativo de California se produce en un contexto donde no existe una ley federal integral sobre inteligencia artificial en Estados Unidos. Esta ausencia ha llevado a que el estado ocupe un rol regulador que tradicionalmente corresponde al ámbito nacional.

Desde sectores del Gobierno federal de Estados Unidos, se ha advertido que la proliferación de marcos estatales diferenciados podría:

Fragmentar el mercado tecnológico.

Aumentar costos regulatorios.

Generar inseguridad jurídica para empresas que operan a nivel nacional e internacional.

California, sin embargo, sostiene que su enfoque busca anticiparse a riesgos sistémicos y establecer estándares que, de hecho, podrían convertirse en referencia futura para una legislación federal.

Cierre analítico

La Transparency in Frontier Artificial Intelligence Act no solo consolida a California como líder normativo en inteligencia artificial, sino que abre un debate estructural sobre quién debe regular las tecnologías emergentes y bajo qué criterios. En un escenario de aceleración tecnológica, la ley anticipa una discusión que ya no es técnica, sino profundamente jurídica, política y económica.