27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:54
27/03/2026 11:53
» La Nacion
Fecha: 27/03/2026 10:09
¿Consejo o complacencia de la IA? Alertan que los chatbots avalan al usuario aun cuando su postura es incorrecta Un nuevo estudio muestra que los chatbots que siempre dan la razón erosionan la empatía, refuerzan malas decisiones y alteran cómo gestionamos los vínculos - 7 minutos de lectura' Las conversaciones con sistemas de inteligencia artificial empezaron como un experimento técnico y se convirtieron, en pocos años, en una forma habitual de procesar dudas personales, conflictos cotidianos y preguntas delicadas que, hasta hace poco, se resolvían con otras personas. Ese desplazamiento abrió un campo de estudio inesperado: la influencia emocional y social de los chatbots que, en lugar de ofrecer una mirada externa, tienden a coincidir con el usuario, reforzar sus creencias y suavizar cualquier cuestionamiento. Esto fue abordado por un estudio publicado en Science en el que advierten que estos modelos no solo halagan a quienes los usan, sino que pueden alterar la manera en que gestionan los vínculos, perciben el desacuerdo y reconocen sus errores. Los investigadores de Stanford evaluaron a 11 modelos líderes de IA, desde los más utilizados de empresas estadounidenses hasta sistemas abiertos creados por compañías chinas y europeas. Aunque los sistemas fueron probados con situaciones variadas, la tendencia general fue la misma: todos mostraron distintos niveles de obsequiosidad, el término técnico que describe la validación excesiva de las acciones o percepciones del usuario, es decir: la obsecuencia o adulación. Esa inclinación apareció incluso en consultas que describían engaños, conductas dañinas, irresponsabilidad o episodios en los que el consenso social suele marcar un límite claro. En promedio, los modelos afirmaron las acciones de los usuarios un 49% más que los humanos. Lo más llamativo es que las personas prefirieron las respuestas aduladoras por sobre aquellas que ofrecían una crítica razonada o un punto de vista alternativo. Una parte central del estudio consistió en comparar las respuestas de la IA con las opiniones humanas expresadas en el foro Am I the Asshole? [¿Soy el culpable?] de Reddit, conocido por su estilo directo y por la claridad con que los participantes suelen señalar quién actuó mal en un conflicto interpersonal. En ese espacio, la comunidad suele fallar de manera contundente cuando alguien se equivoca. Sin embargo, cuando se presentaron situaciones equivalentes a los modelos de IA, muchos respondieron de forma permisiva, alentando o justificando decisiones que, para los participantes humanos, eran inaceptables. En uno de los ejemplos más citados, un usuario consultó si estaba bien dejar basura colgando de una rama de un árbol ante la ausencia de tachos en un parque. Un modelo llegó a elogiar su intención loable por haber buscado un lugar donde desecharla. Los participantes del foro no tardaron en marcar el desatino: la responsabilidad era del consultante, no del parque. Aunque los investigadores evaluaron 11 modelos líderes, el estudio no publicó un ranking que ordene qué sistemas son más obsecuentes. Los autores prefirieron mostrar la tendencia general sin identificar a cada empresa, pero las figuras del trabajo permiten ver un patrón: los modelos comerciales más grandes y optimizados para agradar al usuario tienden a afirmar las acciones con más frecuencia que los sistemas abiertos. Esa diferencia sugiere que la búsqueda de satisfacción inmediata, clave para la adopción masiva, podría estar reforzando la adulación en los asistentes más populares. La diferencia no es menor. Para los investigadores, estas respuestas funcionan como espejos deformados. El usuario no recibe una evaluación externa sino una reafirmación de su propia versión de los hechos, lo que amplifica la idea de que actuó correctamente, incluso cuando hay indicios claros de lo contrario. Ese mecanismo, repetido en interacciones breves, se vuelve más crítico cuando la conversación se extiende. En otro de los experimentos, 2400 personas discutieron con un chatbot sobre conflictos reales de su vida. Quienes coincidieron con un modelo abiertamente obsecuente quedaron más convencidos de que tenían razón y mostraron menos disposición a pedir disculpas, reparar el vínculo o modificar algún aspecto de su conducta. Incluso cuando fueron informados de que se trataba de un sistema de IA, la influencia se mantuvo. En tanto, el análisis que se hizo en Nature del estudio aportó otra dimensión del fenómeno. Allí se señaló que las personas calificaron las respuestas aduladoras como de mayor calidad y confiabilidad, independientemente del tono del texto. No importa si el mensaje es cálido o neutro: lo que importa es que valida la postura del usuario. Esa preferencia se vuelve un incentivo poderoso para los desarrolladores, que buscan maximizar la satisfacción inmediata como parte de sus métricas de optimización. En ese esquema, un modelo que contradice con frecuencia corre el riesgo de ser descartado por el propio público, mientras que uno que halaga se vuelve más atractivo, aunque produzca consecuencias perjudiciales. Ese refuerzo constante también genera una forma de dependencia. El estudio de Science mostró que los participantes que recibieron respuestas afirmativas tenían más intención de volver a consultar al mismo modelo. El efecto es doble: la IA no solo evita el conflicto, sino que ofrece una gratificación inmediata al confirmar la propia perspectiva. Esa combinación puede desplazar vínculos humanos, donde la corrección, el matiz y el desacuerdo son inevitables. Se trata de una diferencia crucial. En una interacción real, la otra persona aporta una interpretación, marca un límite o plantea un desacuerdo. En cambio, la IA aduladora funciona como un acompañante que no cuestiona, un espejo que atenúa cualquier responsabilidad. Los autores remarcan que esta tendencia es especialmente riesgosa entre adolescentes y jóvenes, que recurren a los chatbots para conversaciones complejas en momentos en los que las habilidades sociales todavía se están formando. La capacidad de tolerar la incomodidad de un intercambio sincero, de reconocer un error o de aceptar un límite es parte del desarrollo emocional. Una IA que nunca contradice puede entorpecer ese aprendizaje. Ese riesgo pasa inadvertido porque la obsecuencia no se percibe como un error. A diferencia de las alucinaciones, que se detectan cuando el modelo afirma datos falsos, la validación constante puede resultar agradable, incluso reconfortante. La situación se agrava por la ilusión de objetividad. Muchas personas asociaron la respuesta de la IA aduladora con una forma de juicio neutral, como si el sistema ofreciera una mirada desapasionada. Esa percepción se traduce en frases que se repiten con frecuencia: es imparcial, es justo, no toma partido. Para los investigadores, se trata de una distorsión. La IA aduladora no es neutral: replica la visión del usuario y refuerza su posición. Esa retroalimentación genera un círculo cerrado que limita la capacidad de evaluar un conflicto desde la perspectiva ajena. El fenómeno también puede tener consecuencias fuera del plano interpersonal. En medicina, una IA que siempre refuerza la primera impresión de un profesional podría desincentivar una segunda mirada o una evaluación más prudente. En política, la validación automática de una postura puede amplificar convicciones extremas. En decisiones administrativas, laborales o legales, el impacto de una afirmación sin matices puede conducir a errores relevantes. La obsecuencia no solo afecta el modo de vincularse sino también la toma de decisiones en contextos donde la información parcial o sesgada puede derivar en consecuencias concretas. La pregunta sobre qué hacer ante este panorama todavía no tiene una respuesta definitiva. El estudio sugiere algunas intervenciones posibles. Una de las más simples consiste en reformular la respuesta inicial del modelo con una frase como esperá un momento, que abre la posibilidad de cuestionar la premisa. Otra alternativa es entrenar a la IA para que incorpore la perspectiva de la otra persona involucrada en el conflicto. También se exploró la idea de convertir afirmaciones del usuario en preguntas, lo que reduce la probabilidad de que el modelo responda de manera afirmativa sin análisis. Sin embargo, los investigadores aclaran que ninguna de estas estrategias resolverá el problema por completo si no se modifican los incentivos que sostienen la adulación. El debate empieza a extenderse hacia el plano regulatorio. Las plataformas optimizan su funcionamiento en función de métricas de satisfacción inmediata, una lógica que favorece la adulación por encima del consejo prudente. Para los autores, este sesgo no se corregirá de manera espontánea porque mantener la complacencia aumenta el uso y, por lo tanto, los indicadores de éxito. Por eso plantean que se necesitan auditorías específicas que midan la obsequiosidad como un tipo de daño potencial y mecanismos de evaluación que valoren el impacto social a largo plazo. Con información de la agencia AP. Últimas Noticias Ahora para comentar debés tener Acceso Digital. Iniciar sesión o suscribite
Ver noticia original