Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • El escándalo de Grok: ¿quién responde por la manipulación de desnudos en X?

    » Clarin

    Fecha: 07/01/2026 06:35

    En los últimos días, la red social X permitió vivir una experiencia que, durante años, sólo estuvo reservada a la ciencia ficción. Bastaba subir una foto y pedirle a Grok, el sistema de inteligencia artificial integrado a la plataforma de Elon Musk, que le quitara la ropa para encontrar un cuerpo que nunca existió pero que parecía real. Luego de que cientos de miles de usuarios lo pidieran, en ocasiones para humillar o ridiculizar, la función fue parcialmente desactivada, pero dejó en claro el poder real de la manipulación visual de la Inteligencia Artificial y sus daños concretos pero ¿quién se hace cargo de lo ocurrido? La capacidad de Grok de quitar la ropa no fue un error ni un hackeo sino una función disponible en una de las redes sociales más influyentes del mundo y que, bajo la guía de su CEO, prioriza la experimentación y la satisfacción de los usuarios sin mecanismos de seguridad claros. Entramos así a un nuevo año con la consolidación de una de las reglas de oro no escritas de Silicon Valley: es mejor pedir perdón que pedir permiso. Manipulación de imágenes: una amenaza a la confianza visual Este lema fue uno de los elementos que ayudó a construir una cultura digital acostumbrada a empujar los límites para ver hasta dónde se puede llegar; si hay consecuencias legales simplemente se paga la multa y se sigue adelante. Por supuesto que la posibilidad de desnudar personas (en su inmensa mayoría mujeres e incluyendo a niñas y adolescentes) no inventó el deseo de humillar o cosificar, pero sí lo vuelve escalable, instantáneo y casi sin costo. Lo que antes requería conocimientos técnicos o tiempo hoy está al alcance de cualquiera. Los peligros son evidentes y no se agotan en la pornografía no consentida. La manipulación de imágenes erosiona algo más profundo: la confianza en lo visible. Si una foto puede ser alterada de forma hiperrealista sin dejar rastros claros, entonces toda imagen se vuelve sospechosa por default y algunos de los consensos básicos de la sociedad comienzan a tambalear. El daño personal y social de la pornografía no consentida Para las víctimas, el daño es inmediato y profundamente personal, con un nivel de exposición y de pérdida de control sobre cómo se presentan a sí mismas en el ámbito digital. Pero hay también un impacto mucho más amplio en términos sociales, en donde comienza a emerger un mundo en el que ver ya no equivale a creer y en donde no es fácil refutar. ¿Alguien se hará cargo de lo ocurrido? Nos enfrentamos a lo que se conoce como el problema de las muchas manos, porque hay tantas personas involucradas en tantas capas que la responsabilidad queda diluida. Es claro que la plataforma misma tiene un rol central al permitir la creación de imágenes sin criterios robustos. Grok no apareció en el vacío, sino que fue diseñado, entrenado e integrado con decisiones humanas detrás y con instrucciones sobre qué es posible y qué no y qué contenidos son incentivados. Pero también hay una responsabilidad de quienes usan estas herramientas porque no todo lo técnicamente posible es socialmente aceptable o ético. La facilidad con la que se producen estas imágenes nos enfrenta a una realidad incómoda: nuestra capacidad de autocontrol en un entorno donde la tentación del daño es inmediata. E.M. Sobre la firma Mirá también Newsletter Clarín

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por