Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Inteligencia artificial: ¿oportunidad o riesgo para la seguridad nacional?

    Buenos Aires » Infobae

    Fecha: 25/10/2025 06:35

    La inteligencia artificial está presente en todos los ámbitos y áreas. ¿Cómo se vincula con la seguridad nacional? (Fotos: archivo DEF) La inteligencia artificial (IA) es actualmente la tendencia tecnológica más importante del siglo XXI. Su uso es objeto de interés de gobiernos, empresas y personas gracias a su evolución como herramienta predictiva, pero, al mismo tiempo, preocupa por su implementación delictiva. DEF pudo conocer la opinión de Maximiliano Scarimbolo, director nacional de Gestión de Sistemas de la Secretaría de Lucha contra el Narcotráfico y Criminalidad Organizada, que depende del Ministerio de Seguridad Nacional, sobre los beneficios y las amenazas que representa esta tecnología. Oportunidades y riesgos asociados a la IA La acelerada adopción de tecnologías de inteligencia artificial en el ámbito de la seguridad nacional representa una oportunidad histórica para transformar la manera en que prevenimos, detectamos, analizamos y respondemos a amenazas. La seguridad pública y la defensa nacional se encuentran en un punto de inflexión, donde el volumen de datos disponibles supera con creces la capacidad humana de análisis. La IA, al permitir el procesamiento automatizado y la identificación de patrones ocultos a simple vista, se convierte en una herramienta indispensable para el diseño de políticas de prevención, la investigación criminal y la gestión de crisis. Antes las nuevas herramientas informáticas, la seguridad pública y la defensa nacional se encuentran en un punto de inflexión Desde el Ministerio de Seguridad Nacional, el uso de la IA se ha orientado a potenciar la integración de grandes bases de datos en plataformas que permitan la interoperabilidad y el análisis en tiempo real. Esta capacidad de fusión de datos posibilita anticipar situaciones de violencia, identificar redes criminales y mapear comportamientos anómalos que podrían derivar en amenazas mayores. Entre los ejemplos concretos, se incluyen los sistemas de alerta temprana para el narcotráfico, modelos predictivos de delitos en zonas urbanas y herramientas para priorizar casos criminales en función de su riesgo potencial. Como es el caso del Centro Regional de Información para la Lucha contra las Drogas, con el foco puesto en drogas sintéticas y nuevas sustancias psicoactivas (NSP). El Centro, bajo la órbita de la Secretaría de Lucha contra el Narcotráfico y la Criminalidad Organizada, se consolida como un espacio estratégico de análisis y cooperación, incorporando herramientas de análisis de datos e inteligencia artificial para la detección temprana de patrones delictivos, el monitoreo del desvío de precursores químicos y la generación de alertas predictivas que orienten las tomas de decisiones estratégicas y la acción ejecutiva. Desde el Ministerio de Seguridad Nacional, el uso de la IA se ha orientado a potenciar la integración de grandes bases de datos Pero el avance tecnológico no está exento de riesgos. La IA es, en esencia, un habilitador dual: la misma potencia que ofrece para el bien puede ser utilizada para el mal. Algunos actores criminales ya están empleando modelos de lenguaje para automatizar campañas de phishing y ramsonware más sofisticadas, crear deepfakes que buscan desinformar o extorsionar, e incluso desarrollar malware autoadaptativo que evade los sistemas de detección tradicionales. En este sentido, la ciberseguridad debe evolucionar al mismo ritmo que las amenazas, adoptando arquitecturas de defensa en capas, monitoreo continuo y estrategias de ciberinteligencia que integren fuentes abiertas, privadas y gubernamentales. El desafío ético es igualmente relevante. Los sistemas de IA que operan sobre grandes volúmenes de datos sensibles deben cumplir con estrictos estándares de protección de datos personales y respeto de los derechos fundamentales. La ley 25326 en Argentina, junto con marcos internacionales como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, establecen principios claros de transparencia, proporcionalidad y finalidad en el tratamiento de datos. Implementar la IA sin un marco de gobernanza sólido podría derivar en sesgos algorítmicos, discriminación involuntaria o incluso abuso de poder estatal.Por ello, es fundamental contar con auditorías periódicas de los algoritmos utilizados, esquemas de aplicabilidad de las decisiones automatizadas y mecanismos de control ciudadano que garanticen que la tecnología se utiliza para proteger y no para vigilar indiscriminadamente. En el plano operativo, la capacitación del personal es clave: ninguna herramienta de IA reemplaza la experiencia de los analistas, investigadores y fuerzas de seguridad, sino que debe complementar su labor y mejorar su capacidad de decisión. El desafío ético es igualmente relevante Perspectivas nacionales e internacionales A nivel estratégico, la cooperación internacional juega un rol central. Las amenazas cibernéticas no reconocen fronteras y requieren respuestas coordinadas entre países. Argentina participa activamente en la Convención de Budapest y en foros regionales de intercambio de datos. La IA puede facilitar la detección de patrones transnacionales de delitos, como el tráfico de personas, el contrabando y el financiamiento ilícito, pero requiere protocolos seguros para el intercambio de información y acuerdos bilaterales que garanticen la protección de los datos. La inversión en infraestructura tecnológica es otro factor crítico. Desplegar IA a gran escala demanda centros de datos resilientes, redes seguras y capacidad de cómputo de alto rendimiento. El desarrollo de capacidades soberanas en tecnologías críticas —como procesadores, software de análisis y plataformas de inteligencia artificial entrenadas con datos locales— es una prioridad para evitar dependencias estratégicas y garantizar la autonomía decisional del Estado. Nuestro compromiso es avanzar hacia un modelo de seguridad basado en datos, donde la IA se convierta en un aliado estratégico y no en un vector de vulnerabilidad. Esto requiere estándares éticos, inversión sostenida en tecnología, formación continua de nuestros equipos y marcos legales que acompañen la innovación sin comprometer las libertades civiles. Las proyecciones apuntan a que la IA se convertirá en un aliado estratégico y no en un vector de vulnerabilidad La colaboración público-privada-académica es esencial para robustecer la resiliencia de las infraestructuras críticas, fortalecer la ciberseguridad y desarrollar campañas de concientización ciudadana sobre riesgos digitales. La oportunidad que tenemos por delante es única: aprovechar la inteligencia artificial para hacer de nuestras ciudades espacios más seguros, reducir los tiempos de respuesta ante emergencias y desarticular redes delictivas antes de que puedan materializar sus amenazas. Para ello, debemos adoptar una visión de largo plazo, fomentar la innovación local y garantizar que cada avance tecnológico esté acompañado por mecanismos de control, auditoría y responsabilidad. Solo así podremos garantizar que la tecnología fortalezca, y no amenace, la tranquilidad de nuestros ciudadanos.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por