16/09/2025 09:10
16/09/2025 09:10
16/09/2025 09:09
16/09/2025 09:09
16/09/2025 09:06
16/09/2025 09:05
16/09/2025 09:05
16/09/2025 09:05
16/09/2025 09:04
16/09/2025 09:04
Buenos Aires » Infobae
Fecha: 16/09/2025 06:46
Confundir usos de la inteligencia artificial con los modelos que la sustentan puede llevar a prohibiciones excesivas Las sociedades modernas enfrentan un dilema: cómo regular la inteligencia artificial sin sofocar la innovación ni desproteger derechos. La respuesta fácil, y sin dudas la más peligrosa, consiste en importar modelos regulatorios vigentes, con leves retoques, sin reparar en sus vacíos, sus contradicciones internas, ni en la realidad tecnológica, cultural y jurídica local. Así, se reproducen buenas intenciones en la superficie, pero se instala un andamiaje normativo frágil que puede terminar coartando la misma innovación que se buscaba incentivar. En Argentina, la discusión ya está en marcha. En los últimos meses, se han presentado algunas iniciativas legislativas para regular la inteligencia artificial. Si bien el diagnóstico es compartido, es necesario legislar, los proyectos evidencian un patrón común: replican modelos ajenos sin atender las particularidades de nuestro ecosistema tecnológico, ni su nivel de desarrollo, ni sus capacidades reales de implementación. Uno de los errores más graves al copiar marcos regulatorios es confundir los usos de la inteligencia artificial con los modelos que la sustentan. Algunos esquemas clasifican los riesgos según el área en que se aplica la tecnología: educación, crédito, justicia, seguridad, pero luego se etiquetan esas categorías como si se refirieran a los sistemas mismos. Esta imprecisión no es un simple problema de lenguaje: implica decidir si se restringe un uso puntual o si, en cambio, se bloquea toda una tecnología. El riesgo es evidente, lo que nace como una estrategia quirúrgica para controlar ciertos usos, puede terminar funcionando como una prohibición general sobre modelos enteros, incluso cuando su aplicación sea legítima, segura y beneficiosa. Otro de los errores más frecuentes al importar regulaciones es asumir, de forma implícita, que toda inteligencia artificial es estrecha. Se legisla como si los sistemas actuales fueran herramientas diseñadas para cumplir tareas específicas y limitadas. Pero ese modelo pertenece al pasado. El presente está definido por arquitecturas de propósito general y por el despliegue de inteligencia artificial generativa. Estos sistemas son multimodales, adaptables, y exhiben propiedades emergentes: capacidades que no estaban previstas en su entrenamiento inicial y que se manifiestan al escalar el volumen de datos y parámetros. En paralelo, uno de los desafíos más complejos que plantea la regulación de la inteligencia artificial es la creación de responsabilidades sin definir con precisión las reglas de imputación. Se declara que desarrolladores, proveedores u operadores serán responsables según su grado de participación, pero rara vez se explica qué significa realmente participar en ecosistemas donde los modelos son reutilizados por múltiples actores, adaptados a distintos contextos y empleados con finalidades diversas. En ese marco, se espera que los operadores acrediten principios como la explicabilidad, la no discriminación o la trazabilidad total, incluso cuando se trata de sistemas opacos por definición, los denominados de caja negra, como por ejemplo los GPT, que ni siquiera sus propios diseñadores pueden explicar completamente. El resultado es un régimen que proyecta inseguridad jurídica: desarrolladores expuestos sin márgenes claros, operadores obligados a garantizar lo que no controlan y usuarios atrapados entre promesas que no encuentran sustento práctico. A esta indefinición se suma un problema aún más delicado: la posibilidad de que una autoridad administrativa suspenda el despliegue de sistemas mediante una reclasificación de riesgos, sin criterios previamente establecidos. Esta herramienta, lejos de brindar certezas, puede convertirse en un factor de parálisis, capaz de congelar proyectos enteros y desalentar cualquier intento serio de inversión. A ello se añade una práctica regulatoria extendida pero riesgosa: delegar aspectos centrales del régimen legal a una futura reglamentación. Se transfieren al regulador cuestiones críticas como los estándares de auditoría, las métricas de evaluación, los requerimientos de transparencia e incluso el régimen sancionatorio. Esta deriva tiene consecuencias graves. Por un lado, los derechos que se proclaman quedan sin contenido operativo. Por otro, se habilita que infracciones y sanciones se definan en normas inferiores, cuando deberían estar expresamente contempladas en la ley. En ese escenario, la previsibilidad, condición esencial de la seguridad jurídica, simplemente se disuelve. Este panorama se agrava omisiones estructurales: no se establecen reglas claras para la gobernanza de los datos; no se definen criterios uniformes para el rotulado de contenidos sintéticos; no se articulan mecanismos de interoperabilidad federal ni se contemplan salvaguardas para desarrolladores, proveedores e integradores. El resultado no es un ecosistema más seguro, sino uno más incierto. Las grandes compañías pensarán dos veces antes de desplegar sus modelos; las pymes tecnológicas difícilmente podrán sostener esquemas de cumplimiento fragmentado y volátil; y el ámbito académico verá recortadas sus posibilidades de experimentación e innovación. En el extremo, los usuarios serán quienes carguen con las consecuencias: menos innovación, más restricciones, menos garantías. Regular la inteligencia artificial no solo es urgente: es indispensable. Pero hacerlo a ciegas, replicando marcos normativos sin comprender su arquitectura técnica ni adaptarlos al entorno local, es legislar con los ojos vendados. La ironía es flagrante: se pretende limitar, usos peligrosos, mientras se deja intacta la raíz de muchos riesgos y se multiplica la incertidumbre para aquellos que justamente buscan cumplir. En definitiva, el problema no es si se debe regular o no, sino cómo se regula de forma inteligente. Cuando no hay reglas claras, ni una distribución razonable de responsabilidades según el grado de control que tiene cada actor, cualquier intento normativo termina generando más dudas que certezas. Y en ese escenario, la innovación no avanza: retrocede. El futuro de la inteligencia artificial en Argentina va a depender de una regulación que entienda cómo funcionan realmente estos sistemas, desde su entrenamiento hasta su uso. No alcanza con mirar el resultado visible; hay que comprender todo el proceso. Porque copiar sin adaptar no es legislar: es repetir sin pensar, con la esperanza de que la realidad se acomode sola. Pero en temas de inteligencia artificial, la realidad siempre se adelanta. Y si la ley llega tarde y mal, lo que se retrasa no es la tecnología: es el país.
Ver noticia original