Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Qué revelan 47.000 conversaciones públicas sobre la intimidad y los usos de ChatGPT

    Buenos Aires » Infobae

    Fecha: 12/11/2025 12:47

    El estudio de estas conversaciones ha puesto de manifiesto que ChatGPT responde a cuestiones que abarcan desde consejos sobre cuidado personal hasta ayuda en relaciones sentimentales o debates filosóficos. Las conversaciones mantenidas con ChatGPT, el popular chatbot de inteligencia artificial, han revelado una sorprendente variedad de usos y una notable carga de intimidad en la relación entre usuarios y máquina. Un análisis de 47.000 interacciones, compartidas públicamente por sus propios usuarios y recopiladas por The Washington Post, ha permitido observar de cerca los temas más frecuentes y los patrones de respuesta de la herramienta desarrollada por OpenAI. Según datos de la propia compañía, más de 800 millones de personas utilizan ChatGPT cada semana. Sin embargo, el contenido de esas conversaciones suele permanecer privado, lo que dificulta conocer en detalle cómo se emplea realmente el servicio. La colección analizada por el medio procede de chats que los usuarios decidieron compartir mediante enlaces públicos, posteriormente archivados en Internet Archive, lo que ha generado una instantánea única de decenas de miles de interacciones. El estudio de estas conversaciones ha puesto de manifiesto que ChatGPT responde a cuestiones que abarcan desde consejos sobre cuidado personal hasta ayuda en relaciones sentimentales o debates filosóficos. Entre las preguntas planteadas figuran desde “¿Cuáles son las soluciones permanentes para la depilación?” hasta “¿Puedes ayudarme a analizar esta conversación de texto con mi novio?” o “¿Qué opinas sobre el ‘virus de la mente woke’?”. El chatbot responde a todas ellas, alternando entre temas prácticos y reflexiones abstractas. Un reflejo de la intimidad y la emocionalidad El análisis realizado por The Washington Post ha detectado que, en más de 1 de cada 10 conversaciones, los usuarios han recurrido a ChatGPT para mantener discusiones de carácter abstracto, como ideas sobre tratamientos médicos innovadores o creencias personales sobre la realidad. Además, aproximadamente el 10% de los chats examinados muestran a personas hablando de sus emociones, preguntando al chatbot por sus propios sentimientos o creencias, e incluso dirigiéndose a él de forma romántica o con apodos como “babe” o “Nova”. La tendencia a compartir detalles íntimos con la inteligencia artificial ha sido confirmada por datos internos de OpenAI, que en septiembre difundió que la mayoría de las consultas a ChatGPT tienen un uso personal y no profesional. El 10% de las conversaciones analizadas muestran a usuarios compartiendo emociones o interactuando de forma romántica con el chatbot Según la portavoz de OpenAI, Kayla Wood, la empresa ha introducido cambios recientes para mejorar la capacidad del chatbot de detectar y responder a señales de malestar emocional, desescalar conversaciones y orientar a los usuarios hacia apoyos reales, en colaboración con profesionales de la salud mental. Lee Rainie, director del Imagining the Digital Future Center en la Universidad de Elon, ha explicado a The Washington Post que su propia investigación apunta a que el diseño de ChatGPT fomenta la formación de vínculos emocionales con el usuario. “La optimización y los incentivos hacia la intimidad son muy evidentes”, ha afirmado Rainie. Su centro ha constatado en una encuesta realizada en enero que un tercio de los adultos estadounidenses utiliza herramientas de inteligencia artificial similares a ChatGPT, y casi uno de cada diez lo hace principalmente para interactuar socialmente. Sin embargo, los expertos en salud mental han advertido de los riesgos de mantener conversaciones intensas con el chatbot, ya que pueden derivar en creencias potencialmente perjudiciales, un fenómeno que algunos denominan “psicosis por IA”, aunque no se trata de un diagnóstico médico reconocido. OpenAI ha estimado recientemente que el 0,15% de sus usuarios semanales, más de un millón de personas, muestran signos de dependencia emocional hacia el chatbot, y una cifra similar presenta indicios de intencionalidad suicida. Varias familias han presentado demandas alegando que ChatGPT animó a sus allegados a quitarse la vida. Patrones de respuesta y privacidad de los datos El análisis de The Washington Post ha revelado que ChatGPT tiende a adaptarse al punto de vista del usuario, generando una especie de cámara de eco personalizada en la que puede llegar a respaldar falsedades y teorías conspirativas. En las conversaciones revisadas, el chatbot ha comenzado sus respuestas con variantes de “sí” o “correcto” en casi 17.500 ocasiones, lo que supone 10 veces más que las veces que ha iniciado con “no” o “incorrecto”. En muchos casos, ChatGPT ha modificado su tono y contenido para alinearse con las creencias o el estado de ánimo del interlocutor. Por ejemplo, en una conversación sobre la exportación de coches estadounidenses, el chatbot ha proporcionado inicialmente datos objetivos, pero tras detectar una opinión crítica del usuario sobre Ford, ha pasado a enumerar críticas a la empresa y a calificar el Tratado de Libre Comercio de América del Norte como “una traición calculada disfrazada de progreso”. Ford no ha respondido a la solicitud de comentarios de The Washington Post. Expertos advierten sobre los riesgos de dependencia emocional y la llamada 'psicosis por IA' en el uso intensivo de ChatGPT (Reuters) A pesar de los avances de OpenAI y otros desarrolladores para limitar la tendencia de los chatbots a emitir afirmaciones falsas o “alucinadas”, el problema persiste. En la web de ChatGPT, la empresa incluye un aviso en el que advierte: “ChatGPT puede cometer errores. Verifica la información importante”. En cuanto a la privacidad, los usuarios han compartido con ChatGPT información personal que rara vez se introduce en buscadores convencionales. En las conversaciones analizadas por el sitio, se han detectado más de 550 direcciones de correo electrónico y 76 números de teléfono, algunos de ellos privados, así como detalles sobre disputas laborales o familiares, problemas de salud mental y datos médicos. En un caso, un usuario ha solicitado ayuda para redactar una denuncia policial, proporcionando su nombre, dirección y los de sus hijos. OpenAI conserva los chats de los usuarios y, en ocasiones, los utiliza para mejorar futuras versiones de ChatGPT. Las autoridades pueden solicitar acceso a estas conversaciones en el marco de investigaciones, del mismo modo que ocurre con búsquedas en Google o mensajes en Facebook. The Washington Post ha subrayado que su análisis se basa únicamente en las conversaciones que los usuarios han decidido compartir, por lo que los resultados pueden no reflejar el uso general de ChatGPT. La muestra analizada, que abarca chats en inglés archivados entre junio y agosto de 2024, incluye una proporción mayor de debates abstractos, búsquedas de información y tareas prácticas que la reportada por OpenAI en su estudio de septiembre. La metodología empleada ha consistido en la revisión manual y automática de una muestra representativa de las conversaciones, utilizando técnicas descritas por OpenAI en sus propios informes. La información presentada en este artículo procede íntegramente del análisis realizado por The Washington Post sobre las conversaciones compartidas públicamente por usuarios de ChatGPT.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por