15/03/2026 11:08
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
15/03/2026 11:07
» TN
Fecha: 15/03/2026 09:22
La inteligencia artificial (IA) dejó de ser una tecnología experimental para convertirse en una herramienta cada vez más presente en las empresas. Desde la automatización de procesos hasta el análisis de datos o la atención al cliente, su uso crece a gran velocidad. Pero esa adopción también trae nuevos desafíos de ciberseguridad que muchas organizaciones todavía subestiman. De acuerdo con el informe AI Risk Management Framework del Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST), uno de los principales riesgos está vinculado al manejo de la información utilizada para entrenar y operar modelos de IA, especialmente cuando se trata de datos sensibles o estratégicos. Una mala configuración o el uso de herramientas no autorizadas puede derivar en filtraciones de información o pérdida de propiedad intelectual. Leé también: Un estudio de Harvard reveló que el uso de IA puede afectar de forma negativa a los trabajadores Hoy vemos una adopción muy acelerada de soluciones de inteligencia artificial en el entorno corporativo, pero muchas empresas todavía no cuentan con marcos de gobierno claros que definan cómo gestionar la seguridad y los datos, explicó Pablo Prieto, director de Digital Business de la empresa tecnológica TIVIT Latam, consultado sobre el tema. Según el especialista, esa falta de reglas claras puede generar puntos ciegos en la infraestructura tecnológica que luego pueden ser aprovechados por ciberatacantes. Ataques a modelos de IA y filtración de datos A estos riesgos se suma una preocupación creciente: la exposición de los propios modelos de inteligencia artificial. En algunos casos, los sistemas pueden ser manipulados o explotados para obtener información confidencial o alterar sus resultados. Según estimaciones de la consultora Gartner, hacia 2026 más del 30% de los ciberataques contra empresas involucrarán modelos de IA o los datos utilizados para entrenarlos. Otro fenómeno que empieza a preocupar a las áreas de seguridad es el llamado Shadow AI. Se trata del uso de herramientas de inteligencia artificial por parte de empleados sin aprobación ni control de la empresa. En estos casos, los colaboradores utilizan plataformas externas para analizar información o generar contenido, lo que puede provocar que datos corporativos salgan del perímetro de seguridad de la organización. Innovar sin perder control de la información Frente a este escenario, cada vez más compañías buscan incorporar inteligencia artificial sin perder control sobre los datos ni comprometer el cumplimiento normativo. Para Prieto, la clave está en integrar la seguridad desde el diseño de los proyectos de IA. Las empresas necesitan innovar con inteligencia artificial sin resignar previsibilidad ni control sobre la información. La seguridad y la eficiencia ya no son variables separadas, sino parte de una misma decisión estratégica, señaló. En ese sentido, especialistas recomiendan adoptar un enfoque integral que combine políticas claras de uso de IA, protección de datos, controles de acceso y monitoreo continuo para reducir los riesgos asociados a estas tecnologías.
Ver noticia original