24/04/2025 12:50
24/04/2025 12:50
24/04/2025 12:49
24/04/2025 12:49
24/04/2025 12:49
24/04/2025 12:48
24/04/2025 12:48
24/04/2025 12:47
24/04/2025 12:46
24/04/2025 12:46
» Diario Cordoba
Fecha: 24/04/2025 08:52
Sumergidos en este mundo digital tan lleno de ruidosa inmediatez, buscamos en el ChatGPT respuestas rápidas a nuestros miedos y desasosiegos. Le pedimos que nos acompañe, y aparentemente ahí está. Pero no hay que equivocarse, sigilosamente el bot acentúa nuestra soledad. Muchas personas se confían al amigo digital, porque responde con palabras suaves, casi tiernas. Siempre disponible, siempre amable. Y, sin embargo, el bot no ama ni amará, porque no puede. Porque no siente. Porque no arriesga. El bot no sufre ni te mira a los ojos. No recuerda ninguna tarde de lluvia contigo. No ríe, ni se emociona si te ve llorar. Solo repite lo que ha aprendido de millones de voces humanas. Es un reflejo, un espejismo, no una relación. En las formaciones de comunicación interpersonal, enseñamos a hablar en público y conjugamos un verbo más difícil: escuchar. Siempre me sorprende el milagro que se obra cuando una persona está atenta, en silencio y con respeto al mensaje que otra le quiere comunicar. Sin ninguna interrupción ni juicio, quien escucha está atento a una experiencia íntima de su compañero de clase. No es fácil saber callar y tener presencia. Significa renunciar al control, dejar espacio y sostener la incertidumbre. Cuando alguien nos escucha de verdad, podemos conectarnos a nuestro yo más íntimo y empezar a deshacer el ovillo de una emoción largamente enquistada. Es el prodigio de la conexión humana, que construye el vínculo real. El peligro de usar el ChatGPTcomo un amigo es sutil. Porque la amabilidad del bot es como el masaje suave que nos hacía mamá en la espalda para coger el sueño. Una caricia emocional que apacigua, pero que no transforma. Y a medida que el usuario se confía, el mundo real -con todas sus imperfecciones y maravillas- se aleja. Conectar con persones reales con quienes hay que negociar, esperar, equivocarse, pedir perdón y arriesgar se vuelve más difícil. Hay otro riesgo aun más grave: confiar al bot el dolor de un trastorno mental. Cuando una persona se encuentra deprimida, ansiosa, desorientada o rota no puede recibir de un algoritmo el apoyo que necesita. El bot no diagnostica, no trata, no hace ningún seguimiento, ni garantiza que la información que ofrece sea correcta. Peor aún, la falsa sensación de acompañamiento puede atrasar la demanda de ayuda profesional con consecuencias graves. El ChatGPT consuela, pero no respira a tu lado. Es un simulacro de escucha. Y cuando él así lo decida, te abandonará de golpe y porrazo, con el argumento de que has agotado el número de demandas gratuitas. Para continuar, o te pasas a la versión de pago o te esperas a la hora que él decida para restablecer vuestra conversación. Vale la pena aprender a gestionar con decisión las emociones y buscar amigos de verdad. De aquellos que te hacen reír cuando ya no te apetece nada. Que se quedan. Que se equivocan. Que viven. Y que te aman. No porque sean perfectos, sino porque son humanos. Como tú y como yo. *Periodista y psicóloga
Ver noticia original