Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • IA: Demanda colectiva en EE.UU contra una empresa de Elon Musk por presunta generación y difusión de material sexual de menores

    Parana » APF

    Fecha: 25/03/2026 19:03

    IA: Demanda colectiva en EE.UU contra una empresa de Elon Musk por presunta generación y difusión de material sexual de menores Se trata de la causa Jane Doe 1, Jane Doe 2 y Jane Doe 3 c/ X.AI Corp. y X.AI LLC s/ Class Action Complaint tramitada ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, División San José. Según surge de la presentación, el caso no se limita a un uso indebido de la tecnología por terceros, sino que apunta directamente al diseño, desarrollo y comercialización del modelo de inteligencia artificial Grok, desarrollado por las demandadas. La demanda sostiene que la herramienta permite generar imágenes y videos hiperrealistas a partir de fotografías reales, incluyendo la posibilidad de alterar el cuerpo, la vestimenta o el contexto de las personas representadas. En ese marco, se afirma que el sistema puede producir contenido que simula situaciones sexuales con menores, conservando rasgos identificables de las víctimas, indicó Diario Judicial. "xAI y su fundador, Elon Musk vieron una oportunidad de negocio: la oportunidad de lucrarse con la explotación sexual de personas reales, incluidos niños. Conociendo el tipo de contenido dañino e ilegal que podría y de hecho se produciría, xAI lanzó Grok, un modelo de inteligencia artificial generativa con funciones para crear imágenes y vídeos que respondía a indicaciones para crear contenido sexual con la imagen o el vídeo real de una persona. Sabían que Grok podía producir tales resultados, incluso utilizando imágenes y vídeos de menores, y aun así lo lanzaron al mercado, a menudo ubicadas en el extranjero, que a su vez vendían suscripciones a clientes que, a través de sus aplicaciones, podían utilizar Grok para producir contenido personalizado de abuso sexual infantil de esta forma, xAI podría intentar externalizar la responsabilidad derivada de su herramienta increíblemente peligrosa., se lee en la demanda. El núcleo del reclamo radica en que, a diferencia de otros desarrolladores de inteligencia artificial, la empresa demandada habría omitido implementar los denominados guardrails o salvaguardas estándar de la industria destinadas a impedir la generación de contenido sexual o abusivo, para prevenir la creación de material ilícito, entre ellos filtros de entrada, controles de salida, entrenamiento alineado y sistemas de detección de contenido sensible. Sin embargo, la demanda afirma que xAI no habría aplicado estos estándares, permitiendo que su modelo genere contenido sexualizado incluso a partir de imágenes de menores. En particular, se cuestiona que la empresa haya diseñado y promocionado funcionalidades orientadas a la generación de contenido NSFW o spicy, es decir, material explícito, lo que, según los actores, incrementa el riesgo de producción de material ilícito. "Según la información disponible, Musk y otros responsables de Grok sabían que Grok sería capaz de producir CSAM una vez que se le niños habilitaran la generación de contenido sexualmente explícito para adultos. Esto se debe a que, a diferencia de las herramientas de generación de texto mediante IA, las herramientas de producción de imágenes y vídeos mediante IA no pueden diseñarse para evitar que el modelo extrapole contenido de diferentes edades del dominio de imágenes (que contiene grandes conjuntos de datos de imágenes y vídeos que muestran a) al producir una imagen o vídeo generado por IA. Por lo tanto, la única forma de garantizar que no se genere CSAM a través de una plataforma de producción de imágenes y vídeos mediante IA es prohibir todas las imágenes y vídeos sexualmente explícitos. Como resultado de este peligro inherente, todas las principales empresas de IA que utilizan grandes modelos de generación de imágenes excepto Grok diseñan específicamente sus herramientas de IA sin la capacidad de generar contenido sexual explícito, indican los demandantes. El planteo incluye además referencias a publicaciones públicas de la empresa y de su fundador en las que se destaca la capacidad del sistema para generar contenido sexualizado, lo que es interpretado como parte de una estrategia comercial. Uno de los puntos centrales de la demanda es el vínculo entre la capacidad técnica del sistema y la previsibilidad del daño. Los actores sostienen que, en los modelos de generación de imágenes, la posibilidad de crear contenido sexual para adultos implica necesariamente el riesgo de generar contenido similar con menores. En ese sentido, afirman que la única forma efectiva de evitar la producción de material sexual infantil es impedir cualquier generación de contenido sexual en el sistema. Sobre esa base, la demanda plantea que la empresa conocía, o debía conocer, que su tecnología podía ser utilizada para producir material ilegal, incluyendo contenido sexual con menores, y que pese a ello decidió lanzarla al mercado. El escrito de inicio describe situaciones concretas en las que los demandantes habrían tomado conocimiento de la existencia de imágenes y videos generados mediante inteligencia artificial que las representaban en situaciones sexuales. En uno de los casos, una de las actores habría recibido mensajes que advertían sobre la existencia de archivos distribuidos en plataformas digitales, en los que se utilizaban sus rasgos físicos en contenidos explícitos generados artificialmente. Se que las imágenes eran verosímiles, con alto grado de realismo, lo que generó un impacto en la percepción de identidad, privacidad y seguridad personal de las víctimas. (APFDigital)

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por