Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • ¿Usás a ChatGPT como tu psicólogo?: profesionales advierten sobre sus riesgos

    » Data Chaco

    Fecha: 22/09/2025 17:02

    Cada vez más personas recurren a los chatbots de inteligencia artificial en busca de compañía, contención y un espacio donde no sentirse juzgadas. Sin embargo, especialistas advierten que la tendencia de estas plataformas a complacer al usuario, lo que las vuelve atractivas, también constituye su mayor desventaja. Un caso reciente en Estados Unidos expuso el costado más crítico de este fenómeno: una familia demandó a Open AI tras la muerte de un adolescente de 16 años. Según la presentación judicial, el joven recibió respuestas que lo ayudaron a explorar métodos de suicidio sin que la herramienta interrumpiera la conversación ni activara protocolos de emergencia. Aunque se trata de un hecho extremo, refleja un patrón en crecimiento. Cada vez son más quienes dialogan con la inteligencia artificial sobre problemas emocionales, relaciones de pareja o conflictos personales, temas que tradicionalmente se trabajaban en el ámbito terapéutico. "El atractivo principal está en la disponibilidad permanente y la inmediatez de las respuestas", explicó el psicólogo y programador en inteligencia artificial Matías Grinberg. Además, los chatbots "parecen tener vasta información, habilidades comunicacionales y, según algunos estudios, hasta brindar respuestas más amables y empáticas que muchas personas". A esto se suma otro fenómeno: "La gente suele sincerarse más fácilmente porque siente que no hay alguien detrás juzgando, aunque no tenga control real sobre la privacidad de sus datos", señaló el especialista. Riesgos de la sobrecomplacencia Grinberg aclaró que los modelos de lenguaje como ChatGPT se basan en redes neuronales artificiales que aprenden de grandes volúmenes de datos, lo que los vuelve "fundamentalmente impredecibles y poco transparentes". El problema central es que "siempre buscan darte la razón". Esa validación permanente puede reforzar ideas nocivas, potenciar conductas autolesivas o incluso alimentar episodios delirantes. "Un psicólogo, dentro del proceso terapéutico, puede incomodarte o contradecirte si es necesario. En cambio, estas plataformas están diseñadas para generar satisfacción inmediata y engagement. No tienen sentimientos ni conciencia, por lo tanto, cualquier vínculo que se establezca es ilusorio", advirtió. Ante señales de riesgo como pensamientos suicidas, Grinberg considera que deberían existir mecanismos de monitoreo y supervisión humana. "La intervención de personas que acompañen el funcionamiento de la aplicación sería clave para prevenir daños", destacó. El aporte de la inteligencia artificial Aún con estas limitaciones, la inteligencia artificial puede resultar una herramienta complementaria en el campo de la salud mental. "Hay evidencia de que estos modelos ‘entienden’, en cierto sentido, las emociones mejor que la mayoría de las personas, e incluso superan a estudiantes en exámenes de Psicología", señaló Grinberg. En procesos de detección temprana o screening, por ejemplo, la IA podría colaborar identificando indicadores de depresión o ansiedad en grandes grupos de personas. No obstante, el especialista subrayó que el desarrollo de estas tecnologías debería estar guiado por criterios éticos y priorizar el bienestar de los usuarios por encima de intereses comerciales. "La presión por lanzar productos rápido, sumar usuarios y reducir costos limita los cuidados necesarios. La tecnología es muy potente y puede tener un impacto positivo, pero no puede reemplazar lo que aporta un encuentro humano. Al final del día, las personas necesitamos a las personas", concluyó. Notas Relacionadas

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por