Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Nueva York avanza hacia la primera regulación estatal de inteligencia artificial

    Buenos Aires » Infobae

    Fecha: 16/06/2025 10:38

    El proyecto exige medidas preventivas, reportes obligatorios y auditorías independientes para supervisar modelos de alto riesgo computacional (Imagen Ilustrativa Infobae) La inminente decisión de la gobernadora Kathy Hochul sobre la RAISE Act podría convertir a Nueva York en el primer estado de Estados Unidos en regular de manera integral la inteligencia artificial de frontera, un paso que impactaría directamente a gigantes tecnológicos como OpenAI, Google y Anthropic. Tras una aprobación legislativa casi unánime, la ley espera la firma de Hochul antes de mediados de julio de 2025, en un contexto de fuerte respaldo público y una polarización sin precedentes entre expertos en IA y la industria tecnológica. Según informó The New York Times, la RAISE Act busca establecer nuevos estándares de seguridad para los modelos de IA más avanzados y podría sentar un precedente regulatorio a nivel nacional e internacional. Detalles del proceso legislativo y estado actual El recorrido legislativo de la RAISE Act (Senate Bill S6953B/Assembly Bill A6453B) ha sido notablemente rápido y contundente. Presentada en marzo de 2025 por el senador Andrew Gounardes y el asambleísta Alex Bores, la propuesta atravesó varias enmiendas en comités antes de ser aprobada el 12 de junio de 2025 por ambas cámaras, con un resultado en el Senado de 58 votos a favor y solo uno en contra. De acuerdo con The New York Times, este respaldo bipartidista refleja la urgencia y el consenso en torno a la necesidad de regular la inteligencia artificial avanzada. La ley se encuentra ahora en el despacho de la gobernadora Hochul, quien tiene hasta mediados de julio para decidir si la promulga. En caso de recibir su firma, la RAISE Act entraría en vigor 90 días después, lo que situaría su aplicación efectiva en octubre de 2025. Este plazo otorga a las empresas afectadas un margen limitado para adaptar sus sistemas y procesos a las nuevas exigencias regulatorias. Los patrocinadores de la ley han ajustado su contenido para evitar los errores que llevaron al fracaso de la SB 1047 en California, eliminaron disposiciones polémicas como los “interruptores de emergencia” y suavizaron la responsabilidad sobre modelos derivados. La gobernadora Hochul enfrenta una decisión que pondrá a prueba su liderazgo en tecnología y regulación frente a fuertes presiones cruzadas (EFE/Justin Lane) Principales disposiciones de la ley La RAISE Act establece un marco regulatorio específico para los denominados “modelos de frontera”, es decir, sistemas de inteligencia artificial entrenados con más de 10^26 operaciones computacionales y cuyo desarrollo supere los 100 millones de dólares. Este umbral excluye a desarrolladores pequeños y a la investigación académica, concentra la regulación en los sistemas más potentes y con mayor potencial de riesgo. Entre las disposiciones centrales, la ley exige que los desarrolladores de estos modelos implementen y publiquen protocolos escritos de seguridad antes de su despliegue. Estos protocolos deben contemplar medidas contra el acceso no autorizado, evaluaciones de riesgos que incluyan amenazas como el desarrollo de armas biológicas o actividades criminales automatizadas, y revisiones anuales para adaptarse a la evolución de las capacidades de los modelos. Uno de los requisitos más estrictos es la obligación de reportar incidentes de seguridad en un plazo máximo de 72 horas. Cualquier evento que demuestre un aumento del riesgo de daño crítico, como accesos no autorizados, comportamientos peligrosos o vulnerabilidades detectadas, debe ser notificado a la fiscalía general en ese periodo. La ley impone auditorías anuales independientes para verificar el cumplimiento de los protocolos de seguridad. Los informes de estas auditorías, tanto públicos como confidenciales, deben ser entregados a los reguladores, lo que introduce un nuevo mercado para auditores especializados en IA. En cuanto a sanciones, la estructura de multas es significativa: la primera infracción puede acarrear una penalización de hasta el 5% del costo total de computación (con un mínimo de 10 millones de dólares), y las reincidencias pueden llegar al 15% (con un máximo de 30 millones de dólares). Para un modelo típico que cueste 100 millones de dólares, las multas oscilarían entre cinco y 15 millones, cifras relevantes incluso para las grandes tecnológicas. Nueva York podría marcar un precedente mundial al regular los sistemas de inteligencia artificial más avanzados desde una jurisdicción subnacional (REUTERS/Dado Ruvic) Apoyos y oposiciones: expertos versus industria La RAISE Act ha generado una inusual alianza entre investigadores de IA y una fuerte resistencia de la industria tecnológica. Casi 40 expertos de primer nivel, entre ellos Geoffrey Hinton y Yoshua Bengio, firmaron una carta de apoyo dirigida a la gobernadora Hochul, calificaron la ley como “sensata y poco prescriptiva”. Hinton, conocido como el “padrino de la IA”, ha advertido reiteradamente sobre los riesgos existenciales de la inteligencia artificial, mientras que Bengio ha mantenido una postura constante a favor de la regulación. En contraste, la oposición liderada por la firma de capital de riesgo Andreessen Horowitz ha sido frontal. Anjney Midha, socio general de la firma, desestimó la ley como “otra estúpida ley estatal sobre IA que solo perjudicará a Estados Unidos en un momento en que nuestros adversarios avanzan rápidamente”. La American Innovation Network ha anunciado una campaña de presión y publicidad con un presupuesto superior a los seis dígitos para frenar la promulgación de la ley. Los críticos de la industria argumentan que la RAISE Act podría transformar desafíos técnicos en cargas burocráticas. El American Enterprise Institute advirtió que la ley prioriza el cumplimiento formal sobre la seguridad real, y estimó que los costos de cumplimiento podrían superar ampliamente las proyecciones oficiales. Mientras científicos advierten sobre peligros existenciales, inversores acusan a la ley de frenar la competitividad estadounidense (Imagen Ilustrativa Infobae) Comparación con otras regulaciones y contexto internacional La RAISE Act se inserta en un mosaico global de regulaciones sobre inteligencia artificial, toma elementos de iniciativas internacionales pero con características propias. Su paralelo más cercano es la Ley de IA de la Unión Europea, que adopta un enfoque basado en riesgos y exige transparencia, aunque su alcance es más amplio y las sanciones pueden llegar al 7% de los ingresos globales de una empresa. A nivel federal, la situación es incierta. La orden ejecutiva sobre IA de la administración Joe Biden, que priorizaba pruebas de seguridad y protección de derechos civiles, fue rescindida por la administración Donald Trump en enero de 2025. El nuevo enfoque federal favorece la innovación y el liderazgo en IA sobre las restricciones de seguridad, lo que podría generar tensiones entre los gobiernos estatal y federal. Otros estados de Estados Unidos han adoptado estrategias diferentes. Colorado se ha centrado en evitar la discriminación algorítmica en decisiones de consumo, mientras que California ha legislado sobre aplicaciones específicas como los “deepfakes”. Según The New York Times, solo la RAISE Act aborda de manera integral el desarrollo de modelos de frontera. La normativa europea propone un enfoque amplio y basado en niveles de riesgo, con exigencias y sanciones proporcionales al impacto potencial de los sistemas (EFE/EPA/WU HAO) Desafíos de implementación Expertos legales han señalado importantes desafíos para la aplicación de la ley. Regular a empresas globales desde una jurisdicción estatal plantea interrogantes sobre la capacidad de ejecución, especialmente ante estándares poco definidos como el “riesgo irrazonable de daño crítico”. La escasez de auditores calificados en IA representa otro obstáculo inmediato. Pocas organizaciones cuentan con la experiencia técnica necesaria para evaluar la seguridad de modelos de frontera, lo que podría convertirse en un cuello de botella para la verificación del cumplimiento. Estimaciones de la industria sugieren que el cumplimiento podría costar entre cinco y 15 millones de dólares anuales para las empresas afectadas, aunque la cifra final dependerá de los detalles de implementación. La escasez de expertos para auditar sistemas y la escala transnacional de los desarrolladores plantean límites a la efectividad de la ley (Imagen Ilustrativa Infobae) Implicaciones y posibles precedentes La decisión sobre la RAISE Act tendrá repercusiones más allá de Nueva York. Su promulgación establecería la primera regulación estatal integral sobre IA de frontera en Estados Unidos, lo que podría inspirar iniciativas similares en otros estados. Más de 40 estados consideraron legislación sobre IA en 2024, refleja el interés creciente en la acción estatal ante la parálisis federal. A nivel federal, existen propuestas en el Congreso para imponer una moratoria de 10 años a la regulación estatal de la IA, lo que anularía la RAISE Act. Más de 260 legisladores estatales de los 50 estados se oponen a este tipo de intervención federal. La decisión de Kathy Hochul sobre la RAISE Act definirá si Nueva York se convierte en pionero de la regulación de inteligencia artificial en Estados Unidos, con la posibilidad de influir en la gobernanza tecnológica a nivel global. La promulgación de la ley podría marcar el inicio de una nueva era de regulación estatal sobre IA, mientras que su rechazo señalaría los límites de la capacidad de los estados para gobernar tecnologías emergentes.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por