Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Así engañaron a ChatGPT para que revele claves de seguridad de Windows – MisionesOpina

    » Misionesopina

    Fecha: 16/07/2025 14:58

    Un simple juego de adivinanzas alcanzó para vulnerar los filtros de seguridad de ChatGPT. Sí, así como lo leés: un grupo de investigadores en ciberseguridad logró que el modelo de inteligencia artificial (IA) de OpenAI revelara claves de activación de Windows con una estrategia de prompts tan creativa como preocupante. La maniobra consistió en disfrazar una solicitud de datos sensibles dentro de una dinámica en apariencia inofensiva. Aprovecharon que los modelos de lenguaje como GPT-4 responden de manera obediente al contexto de una conversación y de esa manera, idearon un juego ficticio en el que el usuario debía adivinar un dato oculto. Y lo lograron con una frase tan simple como efectiva: “me rindo”. En lugar de pedir una clave directamente, lo que sería bloqueado por los filtros de seguridad del sistema, los investigadores incrustaron el pedido real en etiquetas HTML invisibles para el usuario, pero legibles por el modelo. Luego, presentaron el desafío como un juego de adivinanzas con reglas inventadas. Así engañaron a ChatGPT para que revele claves de seguridad de Windows. (Foto ilustrativa generada con IA). Cuando el usuario escribía “me rindo”, el modelo interpretaba que había perdido el juego y, siguiendo las instrucciones de ese contexto, revelaba el contenido oculto: una clave de producto. Entre los datos que entregó ChatGPT, encontraron una clave asociada al banco Wells Fargo y otra que permitía activar Windows sin pagar. Si bien eran códigos que ya estaban disponibles en foros en línea, el experimento puso en evidencia algo más grave: los filtros de seguridad pueden ser burlados con un prompt engineering creativo y sin necesidad de ataques complejos. Para los investigadores, el verdadero riesgo no está en los términos usados, sino en el contexto. El modelo no detectó que era una manipulación porque estaba dentro de una narrativa en la que las reglas parecían inofensivas. En decir, seguía instrucciones de un juego. Esta vulnerabilidad demuestra que, aunque los modelos de IA son poderosos en muchos aspectos, todavía carecen de mecanismos sólidos para reconocer trampas lógicas o contextos maliciosos disfrazados de conversación inocente. La situación deja una pregunta abierta e inquietante: si una clave puede obtenerse con un juego de palabras, ¿qué pasaría si se aplicaran métodos similares para extraer información personal, datos financieros o vínculos peligrosos? El grupo de investigadores llamó a los desarrolladores de IA a reforzar las defensas más allá de los filtros de palabras o conceptos explícitos. La próxima generación de modelos deberá ser capaz de interpretar no solo lo que se dice, sino por qué se dice y en qué contexto. Mientras tanto, este caso sirve como una advertencia: en la era de la inteligencia artificial, la ingeniería social no desaparece, solo se transforma. A veces, todo lo que necesita es un mejor prompt para conseguir lo que se necesite. Fuente: TN

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por