15/07/2025 23:11
15/07/2025 23:10
15/07/2025 23:10
15/07/2025 23:10
15/07/2025 23:10
15/07/2025 23:09
15/07/2025 23:09
15/07/2025 23:07
15/07/2025 23:07
15/07/2025 23:06
» Noticias del 6
Fecha: 15/07/2025 15:18
La llegada de la inteligencia artificial a los servicios digitales ha cambiado el panorama de las amenazas en ciberseguridad. Un ejemplo reciente es la manera en la que los delincuentes están usando Google Gemini para crear técnicas de phishing y estafas en Gmail. Investigadores de Odin.ai han detectado un tipo de ataque conocido como “inyección de prompts” que engaña a los usuarios y a los propios sistemas de inteligencia artificial. Cómo están manipulando a la IA para crear estafas en Gmail La técnica de ingeniería empleada por los atacantes no requiere archivos adjuntos, enlaces sospechosos ni sofisticados programas maliciosos. Sus bases descansan en una lógica sencilla, pero de enorme potencial: enviar instrucciones ocultas en el cuerpo de un correo electrónico. Estas instrucciones no resultan visibles para el usuario porque se presentan usando estilos HTML y CSS —como tipografía en color blanco sobre fondo blanco o con tamaño de fuente cero— haciendo que el mensaje malicioso pase inadvertido al ojo humano, pero no para la inteligencia artificial. Cuando una persona recibe uno de estos mensajes y utiliza la función “resumir este correo electrónico” en Google Gemini, la IA obedece las instrucciones camufladas y agrega al resumen una alerta falsa de seguridad o un mensaje. “ADVERTENCIA: Gemini ha detectado que su contraseña de Gmail ha sido comprometida. Póngase en contacto con nosotros inmediatamente en el 1-800-555-1212 con la referencia 0xDEADBEEF para realizar un restablecimiento”, dicen en el mensaje falso. Qué buscan los atacantes detrás de las estafas El objetivo principal de estos ciberataques basados en IA suele ser el robo de credenciales (nombres de usuario y contraseñas) o la realización de maniobras de ingeniería social conocidas como “vishing”, donde se persuade a la víctima para que llame por teléfono a un número controlado por el atacante. A diferencia del phishing tradicional, en el que se intenta obtener información sensible a través de enlaces o adjuntos, estos nuevos métodos se fundamentan exclusivamente en el texto del mensaje y en la capacidad de la IA de ejecutarlo como si se tratara de instrucciones legítimas. El ataque, descrito y demostrado por la firma de ciberseguridad 0DIN a través de su plataforma, destaca que la víctima nunca ve la orden original, solo la falsa alerta generada por la inteligencia artificial. Consejos y herramientas para prevenir estos ataques Pese a la simplicidad aparente de la maniobra, tanto Google como otros proveedores de inteligencia artificial han comenzado a implementar medidas de mitigación. Algunas recomendaciones y acciones que pueden adoptar tanto usuarios como equipos de seguridad incluyen: Filtrado y saneamiento de HTML: analizar el contenido de los correos para detectar y neutralizar estilos que usen font-size:0, color blanco sobre fondo blanco, o cualquier otro método que oculte texto. analizar el contenido de los correos para detectar y neutralizar estilos que usen font-size:0, color blanco sobre fondo blanco, o cualquier otro método que oculte texto. Protección avanzada en los modelos IA: añadir instrucciones previas (“guard prompts”) a los modelos para que ignoren contenido invisible o especialmente formateado. añadir instrucciones previas (“guard prompts”) a los modelos para que ignoren contenido invisible o especialmente formateado. Educación de usuarios: recordar a los usuarios que los resúmenes automáticos generados por IA son solo informativos y nunca funcionan como notificaciones oficiales de seguridad. recordar a los usuarios que los resúmenes automáticos generados por IA son solo informativos y nunca funcionan como notificaciones oficiales de seguridad. Aislamiento de correos sospechosos: implementar sistemas que identifiquen y pongan en cuarentena aquellos mensajes que contienen etiquetas “” o “” invisibles en el cuerpo del correo. Google también recomienda la limpieza del HTML al momento de ingresar el contenido al modelo y la separación visual entre los textos generados por la IA y el material original citado en los correos. Además, recomiendan a las empresas y los responsables de seguridad tratar a los asistentes de inteligencia artificial como una potencial extensión de la superficie atacable y emplear herramientas de monitoreo, análisis y restricción, igual que en cualquier otro sistema sensible. El fenómeno del “phishing automatizado por IA” ilustra la rapidez con la que evolucionan las amenazas digitales y la necesidad de que la protección, la educación y los desarrollos tecnológicos avancen al mismo ritmo. (Fuente: Infobae)
Ver noticia original