16/12/2025 12:12
16/12/2025 12:12
16/12/2025 12:12
16/12/2025 12:12
16/12/2025 12:11
16/12/2025 12:11
16/12/2025 12:11
16/12/2025 12:10
16/12/2025 12:10
16/12/2025 12:10
Rio Negro » Adn Rio Negro
Fecha: 16/12/2025 10:31
(Por Martín Doñate*).- La persistente inadecuación de la Ley 25.326 de Protección de Datos Personales frente a la realidad del big data, la economía algorítmica y el despliegue masivo de sistemas de inteligencia artificial ha generado en la Argentina un déficit estructural de soberanía regulatoria. Este desfasaje normativo expone al Estado, al sector productivo y a la ciudadanía a riesgos jurídicos, económicos y geopolíticos crecientes, en un contexto internacional signado por la disputa estratégica por el control de los datos y las tecnologías emergentes. Mediante un análisis jurídico crítico y comparado, este trabajo examina la insuficiencia del ordenamiento vigente, la jurisprudencia reveladora de la Corte Suprema de Justicia de la Nación y los modelos regulatorios predominantes a nivel global. Se argumenta que la arquitectura legal argentina resulta manifiestamente incapaz tanto de garantizar la tutela efectiva de los derechos fundamentales en el entorno digital como de asegurar una inserción nacional soberana en la gobernanza global de la tecnología. En consecuencia, se postula que la modernización integral del régimen de protección de datos personales —alineado con los estándares del Reglamento General de Protección de Datos (RGPD) de la Unión Europea— junto con la sanción de una Ley Nacional de Inteligencia Artificial basada en un enfoque de riesgos y derechos, constituyen condiciones sine qua non para el desarrollo económico sostenible, la atracción de inversiones de calidad y la afirmación de la soberanía digital del Estado argentino en el siglo XXI. La Civilización Algorítmica como Nuevo Marco Histórico y el Imperativo Regulatorio La transformación digital contemporánea trasciende el ámbito de la innovación tecnológica incremental para configurar una mutación civilizatoria de profundas consecuencias jurídicas y políticas. La expansión ubícua de sistemas algorítmicos, la explotación masiva de datos como recurso estratégico primario y la incorporación de inteligencia artificial en los procesos decisorios están redefiniendo las bases de la organización social, la producción económica, la distribución del poder y la misma noción de autonomía individual. En esta emergente civilización algorítmica, la capacidad de procesar información a escala mediante sistemas inteligentes se erige como un factor determinante de poder, tanto económico como geopolítico. Decisiones que afectan derechos sustantivos, oportunidades económicas y trayectorias vitales son crecientemente mediadas —y en muchos casos sustituidas— por sistemas automatizados de lógica opaca, diseñados y controlados predominantemente por actores privados de escala transnacional. Este fenómeno genera una asimetría estructural entre la velocidad de la innovación tecnológica y la capacidad de las instituciones democráticas para garantizar derechos y rendir cuentas. Ante este panorama, el Derecho no puede limitarse a una función meramente reactiva y reparadora ex post. Se impone, con carácter de urgencia, la construcción de marcos regulatorios de naturaleza prospectiva y constitutiva, capaces de ordenar el ecosistema digital con anticipación, reducir las asimetrías de poder informacional, brindar certeza jurídica a la inversión y, de manera fundamental, preservar la soberanía democrática del Estado frente a dinámicas tecnológicas que tienden a desbordar los marcos institucionales tradicionales. Argentina enfrenta, en este sentido, una disyuntiva histórica: persistir en la adaptación reactiva de normas diseñadas para la sociedad industrial o asumir la tarea de construir un nuevo andamiaje jurídico acorde a la economía de la inteligencia y a la centralidad política de los datos. Fundamentos Constitucionales y los Límites Estructurales del Marco Normativo Vigente La regulación del entorno digital en Argentina encuentra su fundamento último y su límite infranqueable en la Constitución Nacional. El derecho a la privacidad, implícito en la garantía de inviolabilidad de la dignidad personal del artículo 19, y la acción de habeas data expresamente consagrada en el artículo 43, constituyen el piso normativo mínimo e ineludible para la tutela de la autonomía informacional de las personas frente al avance tecnológico. La jurisprudencia de la Corte Suprema ha robustecido este plexo garantístico, reconociendo en fallos fundacionales como “Petric, Dominico c/Estado Nacional” y “Alonso, Graciela Susana c/ Poder Ejecutivo Nacional” el carácter fundamental de estos derechos. La Ley 25.326, sancionada en el año 2000, representó en su momento histórico la reglamentación legítima de dichas garantías constitucionales. Sin embargo, su arquitectura normativa responde de manera integral a un paradigma tecnológico ya superado, propio de finales del siglo XX: bases de datos relativamente estáticas y aisladas, tratamientos de información localizados y decisiones finales predominantemente humanas y auditables. La magnitud, velocidad y complejidad de los flujos de datos contemporáneos, la interconexión transfronteriza de sistemas informáticos y la creciente automatización de decisiones con impacto directo en derechos exigen hoy una relectura dinámica y evolutiva del deber estatal de garantía. Este deber se proyecta, asimismo, sobre el principio rector de la soberanía nacional. En el siglo XXI, la soberanía —como atributo esencial del Estado argentino (Preámbulo, arts. 31, 75 inc. 22 CN)— no se agota en el control del territorio físico, sino que debe extenderse de manera efectiva sobre el ciberespacio, las infraestructuras digitales críticas, los flujos de información estratégica y los sistemas algorítmicos que median crecientemente la vida social y económica. La incapacidad normativa para gobernar estos ámbitos equivale a una erosión fáctica de la autoridad estatal y de su capacidad para cumplir con sus fines esenciales. Insuficiencia Normativa de la Ley 25.326 y su Manifestación en la Jurisprudencia La Ley 25.326, a pesar de haber definido en su momento categorías jurídicas centrales como “datos personales”, “datos sensibles” y la “disociación de datos”, presenta una estructura conceptual y procedimental manifiestamente insuficiente para abordar la lógica contemporánea del tratamiento masivo, automatizado, interconectado y esencialmente transfronterizo de la información. Esta insuficiencia se ha hecho patente en la jurisprudencia de la Corte Suprema de Justicia de la Nación, obligada a operar como intérprete corrector de un marco legal obsoleto. En el precedente “CIPPEC c/ EN – Ministerio de Desarrollo Social” (Fallos: 337:256), el Tribunal Supremo debió realizar una compleja ponderación entre el derecho de acceso a la información pública y la protección de datos personales contenidos en grandes bases de datos estatales, sin contar con las herramientas normativas específicas que exige la gestión algorítmica de la información en el sector público. Este fallo revela la incapacidad de la ley vigente para resolver conflictos normativos propios de la era digital. De manera similar, en una serie de pronunciamientos recientes sobre la competencia en acciones de habeas data que involucran archivos interconectados en redes de alcance nacional e internacional (expedientes “Ccf 008010/2021/Cs001” y “Civ 071919/2003/Cs001”), la Corte ha debido recurrir a disposiciones de la Ley 25.326 —como su artículo 36— pensadas para un entorno tecnológico analógico, evidenciando así la obsolescencia técnica del régimen vigente y su inadecuación para un mundo de datos fluidos y deslocalizados. El marco actual carece, en síntesis, de los pilares doctrinarios e instrumentales de la gobernanza digital del siglo XXI: el principio de responsabilidad proactiva (accountability) que impone la carga de la prueba del cumplimiento al responsable del tratamiento; la protección de datos desde el diseño y por defecto (privacy by design and by default); el requisito de realizar Evaluaciones de Impacto para tratamientos de alto riesgo; y mecanismos robustos y específicos para regular las transferencias internacionales masivas de datos en un contexto de profundas asimetrías regulatorias globales. El Vacío Regulatorio en Inteligencia Artificial: Ausencia Normativa y sus Consecuencias A la insuficiencia crónica del régimen de protección de datos se suma en Argentina la ausencia absoluta de una legislación específica en materia de inteligencia artificial. El ordenamiento jurídico nacional carece por completo de reglas sustantivas y procedimentales sobre toma de decisiones automatizadas, transparencia y explicabilidad algorítmica, clasificación de riesgos de los sistemas de IA o los estándares de control humano significativo. Este vacío normativo resulta crítico en un contexto donde sistemas de IA de complejidad creciente comienzan a desplegarse e incidir en ámbitos sensibles de la vida social: la asignación de beneficios sociales, el scoring crediticio, los procesos de selección laboral, la vigilancia y seguridad pública, el diagnóstico médico y, potencialmente, la propia administración de justicia. La falta de un marco legal específico no solo debilita de manera alarmante la protección de derechos fundamentales como la no discriminación, el debido proceso y la privacidad, sino que genera una profunda inseguridad jurídica que desincentiva la inversión de largo plazo y el desarrollo tecnológico responsable. Ahora bien, resulta fundamental destacar que el Estado argentino ha dado señales normativas puntuales en la promoción del sector digital a través de la Ley de Promoción de la Economía del Conocimiento (Ley 27.506 y sus modificaciones). Dicha legislación expresa una decisión estratégica orientada a fomentar la inversión, la innovación y el desarrollo de actividades de alto valor agregado, incluyendo el software, los servicios basados en el conocimiento y la inteligencia artificial. Sin embargo, la existencia de una política pública de promoción sin una política equivalente de gobernanza, regulación y protección de derechos genera una asimetría estructural relevante. Se impulsa el desarrollo tecnológico sin establecer, de manera simultánea, los límites éticos y jurídicos necesarios para garantizar que dicho desarrollo sea democrático, respete los derechos fundamentales y se encuentre alineado con los intereses estratégicos del Estado. Esta disociación entre fomento económico y regulación sustantiva no solo debilita la tutela de derechos en el entorno digital, sino que expone al propio proceso de desarrollo a riesgos de legitimidad, inseguridad jurídica y dependencia normativa externa. Las limitaciones estructurales de la Agencia de Acceso a la Información Pública (AAIP) como autoridad de control agravan sustancialmente este escenario. Si bien la AAIP ha realizado notables esfuerzos interpretativos para aplicar la Ley 25.326 a casos novedosos, su capacidad técnica, presupuestaria y de enforcement se encuentra severamente condicionada por un marco legal desactualizado que no le otorga las facultades, herramientas y recursos necesarios para fiscalizar a actores tecnológicos globales. El problema, por lo tanto, no es de administración sino de diseño normativo: ninguna autoridad, por más diligente que sea, puede suplir la ausencia de una ley moderna. Derecho Comparado y la Geopolítica de los Datos: Modelos en Disputa y la Posición Argentina La regulación de los datos y de la inteligencia artificial ha dejado de ser una cuestión técnica para convertirse en un elemento central de la política de Estado y de la competencia geopolítica entre las principales potencias y economías emergentes. En este tablero global, se observan al menos tres modelos paradigmáticos en pugna. La Unión Europea ha construido un modelo de soberanía regulatoria basado en la primacía de los derechos fundamentales. A partir del Reglamento General de Protección de Datos (RGPD) —que consagró principios como la accountability y la protección desde el diseño—, la UE ha desarrollado un ecosistema normativo integral que incluye la Ley de Servicios Digitales (DSA), la Ley de Mercados Digitales (DMA) y, de manera seminal, el Reglamento de Inteligencia Artificial (AI Act). Este último introduce un enfoque preventivo y basado en riesgos, prohibiendo usos inaceptables e imponiendo cargas estrictas a los sistemas de “alto riesgo”. Este modelo busca no solo proteger a los ciudadanos europeos, sino también exportar sus estándares normativos a través del denominado “efecto Bruselas”, ejerciendo así un poder blando regulatorio de alcance global. Frente a este paradigma, Estados Unidos y China articulan estrategias alternativas. El primero promueve, a través de su política comercial exterior y de órdenes ejecutivas, un modelo de “libre flujo de datos con confianza” (“Data Free Flow with Trust”), priorizando la innovación abierta y la competitividad de sus gigantes tecnológicos, a menudo mediante acuerdos internacionales que limitan las barreras regulatorias locales. China, en cambio, ejerce una soberanía digital estricta y centralizada, subordinando el desarrollo y uso de tecnologías como la IA a objetivos explícitos de seguridad nacional, estabilidad social y control estatal, dentro de un marco de capitalismo de vigilancia con fuertes restricciones a la salida de datos. En este escenario global, Brasil constituye un espejo regional inmediato y elocuente. Con la sanción en 2018 de la Lei Geral de Proteção de Dados (LGPD) —inspirada en el RGPD— y el lanzamiento de una Estrategia Nacional de Inteligencia Artificial, el país vecino ha logrado articular de manera pragmática la protección de derechos, la previsibilidad normativa para las empresas y la atracción de inversiones en el sector digital, posicionándose como el referente regulatorio indiscutido en América Latina. La comparación con la situación argentina es aleccionadora: el rezago normativo no es un destino inevitable, sino el resultado de una prolongada falta de decisión estratégica y de voluntad política. Vulnerabilidad Estratégica Argentina y los Riesgos en los Acuerdos Internacionales La persistencia de un marco legal digital obsoleto coloca a la Argentina en una posición de debilidad estructural y vulnerabilidad estratégica en el plano de las negociaciones internacionales. Los acuerdos comerciales, de inversión y de cooperación tecnológica contemporáneos incluyen con frecuencia creciente capítulos y disposiciones específicas sobre comercio digital, acceso, procesamiento y transferencia transfronteriza de datos, y estándares para la inteligencia artificial. Negociar desde la posición de un ordenamiento jurídico interno anacrónico implica un riesgo concreto y grave: el de aceptar compromisos internacionales que, de facto o de jure, restrinjan la potestad regulatoria futura del Estado argentino (por ejemplo, a través de cláusulas de “trato justo y equitativo” o de “expropiación indirecta” aplicadas a cambios regulatorios necesarios). Esto comprometería de manera severa la autonomía estratégica nacional y la capacidad del Estado para proteger datos sensibles de ciudadanos, empresas estratégicas y del propio sector público. La soberanía digital se define, en este punto crucial, en la capacidad de establecer reglas propias con antelación y desde una posición de fortaleza, en lugar de quedar condicionado y subordinado a normas diseñadas en otros centros de poder global. Propuestas Legislativas para la Construcción de un Marco Digital Soberano Frente a este diagnóstico de crisis regulatoria y vulnerabilidad estratégica, resulta imperioso y urgente avanzar hacia una reforma legislativa integral y sistémica del derecho digital argentino. Esta reforma debe descansar sobre dos pilares legislativos principales, complementarios e interdependientes. En primer término, es ineludible la modernización profunda de la legislación de protección de datos personales mediante una nueva ley que derogue y sustituya a la Ley 25.326. Esta nueva norma debe incorporar de manera orgánica los principios y mecanismos de la gobernanza digital contemporánea. Ello implica: (i) el fortalecimiento sustantivo del catálogo de derechos digitales, reconociendo expresamente garantías como el derecho a la portabilidad de datos y, de manera crítica, el derecho a no ser objeto de decisiones individuales automatizadas que produzcan efectos jurídicos o le afecten significativamente; (ii) la adopción de un régimen de responsabilidad proactiva (accountability) que traslade la carga de la demostración del cumplimiento normativo al responsable del tratamiento e instituya las Evaluaciones de Impacto en la Protección de Datos (EIPD) como herramienta obligatoria para la gestión de riesgos en tratamientos de alto impacto; y (iii) el establecimiento de mecanismos claros, seguros y adaptados a la realidad global para las transferencias internacionales de datos, condición indispensable para la inserción competitiva del país en mercados que exigen altos estándares de adecuación, como el europeo. De manera complementaria y simultánea, la sanción de una Ley Nacional de Inteligencia Artificial se erige como una condición indispensable para orientar el desarrollo y uso de esta tecnología bajo criterios democráticos, previsibles y soberanos. Dicho marco legal debe: (a) adoptar un enfoque regulatorio basado en riesgos, similar al del AI Act europeo, que gradúe las obligaciones en función del potencial impacto de los sistemas en los derechos de las personas y la seguridad; (b) garantizar exigencias estrictas de transparencia y explicabilidad para los sistemas algorítmicos de alto impacto, especialmente cuando se utilicen en el ámbito de la administración pública o de servicios esenciales; (c) asegurar el control humano significativo sobre las decisiones críticas y establecer límites taxativos para usos socialmente inaceptables; y (d) promover, en paralelo, mecanismos de innovación regulada (como “sandboxes” regulatorios) que impulsen el desarrollo de una economía de la inteligencia nacional sin resignar la protección de derechos fundamentales. Estas iniciativas legislativas, lejos de constituir un freno a la innovación, representan su condición de posibilidad social y jurídica. La regulación inteligente y prospectiva no inhibe el desarrollo tecnológico; por el contrario, lo ordena, lo legitima democráticamente y lo vuelve social y económicamente sostenible en el largo plazo. Conclusión: La Regulación como Acto Fundacional de Soberanía en el Siglo XXI Persistir en la ficción de que un marco normativo concebido para la sociedad industrial puede gobernar la civilización algorítmica implica, en los hechos, resignar la capacidad de decisión nacional, el desarrollo económico basado en el conocimiento y una inserción estratégica en la economía global de la inteligencia. La modernización regulatoria aquí propuesta no constituye un obstáculo burocrático al progreso, sino la condición necesaria e insoslayable para un desarrollo tecnológico que sea a la vez democrático, inclusivo y soberano. La ventana de oportunidad histórica para que Argentina deje de ser un mero objeto pasivo de normas diseñadas en otros centros de poder y se convierta en un sujeto activo y con voz propia en la gobernanza digital global se reduce día a día. La reforma integral que este trabajo propone —una nueva ley de datos y una ley de IA— no es una mera actualización técnica del ordenamiento. Es, en su esencia más profunda, un acto de afirmación de la soberanía nacional en el espacio digital. En el siglo XXI, regular estratégicamente los datos y los algoritmos no es una opción de política pública entre otras: es la forma contemporánea de ejercer la autodeterminación nacional. Regular no es impedir; regular es, en la era digital, la manera fundamental de decidir y construir el futuro de la Nación. *Director del Instituto Argentina 2050. Abogado, Lic. en Ciencias Sociales, ex Senador.
Ver noticia original