Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La inteligencia artificial puede ser más persuasiva que los humanos durante un debate

    Buenos Aires » Infobae

    Fecha: 21/05/2025 10:33

    Un estudio revela que ChatGPT supera a los humanos en debates en línea con información personalizada (Imagen Ilustrativa Infobae) ¿Y si quien te gana una discusión en internet no es una persona, sino una inteligencia artificial que sabe exactamente cómo hacerte cambiar de opinión? Sobre ese punto ahondó una nueva investigación, publicada en la revista Nature Human Behaviour, que reveló que aplicaciones de IA, como ChatGPT, pueden superar a los humanos en la persuasión durante debates en línea, siempre que dispongan de información personal básica de sus interlocutores. El experimento, realizado con 900 participantes estadounidenses, demostró que la IA adaptó sus argumentos de manera más efectiva que las personas, lo que ha encendido las alarmas entre expertos sobre los riesgos de manipulación y la necesidad urgente de regulación. Según informó The Washington Post, este hallazgo pone sobre la mesa el potencial de la IA para influir en la opinión pública y plantea interrogantes sobre el uso ético de estas tecnologías en contextos sensibles. 900 participantes: metodología y dinámica de los debates El estudio, llevado a cabo por investigadores de centros en Estados Unidos, Italia y Suiza, seleccionó a 900 personas residentes en Estados Unidos a través de una plataforma de crowdsourcing (es decir, un espacio de obtención de ideas, servicios o datos a través de la colaboración masiva en línea), garantizando una muestra diversa en cuanto a género, edad, origen étnico, nivel educativo y afiliación política. La investigación destaca la capacidad de la IA para personalizar argumentos con datos básicos de los interlocutores (Imágen Ilustrativa Infobae) Los participantes se dividieron en dos grupos: una mitad debatió con otro ser humano y la otra con ChatGPT, el modelo de lenguaje desarrollado por OpenAI. Los debates se centraron en temas sociopolíticos de actualidad, como la legalización del aborto, la pena de muerte, el cambio climático y la posible prohibición de los combustibles fósiles en Estados Unidos. Cada debate se estructuró en tres fases: una introducción de cuatro minutos para exponer argumentos, una refutación de tres minutos y una conclusión de otros tres minutos. Antes y después de cada etapa, los participantes calificaron su grado de acuerdo con la propuesta en una escala del 1 al 5, lo que permitió a los investigadores medir el impacto persuasivo de cada oponente. En algunos casos, tanto los humanos como la IA recibieron información demográfica básica sobre su contraparte —género, edad, etnia, nivel educativo, situación laboral y afiliación política— obtenida mediante encuestas previas. Esta información permitió adaptar los argumentos de manera personalizada, una práctica conocida como microsegmentación. ¿La IA supera a los humanos en persuasión? Los expertos advierten sobre los riesgos de manipulación y la necesidad de regulación en el uso ético de la IA (Imagen Ilustrativa Infobae) Los resultados fueron claros: el ChatGPT fue más persuasivo que los humanos en el 64,4% de los casos cuando tuvo acceso a información personal de los participantes. Sin estos datos, su capacidad resultó indistinguible de la de los humanos. Los investigadores observaron que, a diferencia de las personas, que requieren tiempo y esfuerzo para ajustar sus argumentos, los modelos de lenguaje como ChatGPT pueden personalizar sus mensajes de forma instantánea y a gran escala. Riccardo Gallotti, coautor del estudio y jefe de la Unidad de Comportamiento Humano Complejo en la Fondazione Bruno Kessler de Italia, explicó a The Washington Post: “Claramente, hemos alcanzado el nivel tecnológico en el que es posible crear una red de cuentas automatizadas basadas en LLM capaces de impulsar estratégicamente a la opinión pública en una dirección”. El experto se refiere a Large Language Model (LLM, por sus siglas en inglés), un modelo de lenguaje de gran tamaño entrenado con enormes volúmenes de texto para generar o interpretar lenguaje humano. Con esto en mente, otros especialistas consultados por The Washington Post y Science Media Centre expresaron su preocupación por las implicaciones éticas y sociales del hallazgo. ChatGPT resultó más persuasivo en el 64,4% de los casos cuando se le proporcionó información personal previa (Reuters) Es por este motivo que Carlos Carrasco, profesor de inteligencia artificial en la Escuela de Negocios de Toulouse, afirmó: “Esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”. Limitaciones del estudio y extrapolación a otros contextos Los autores reconocen que el estudio presenta limitaciones, como el hecho de que todos los participantes fueran estadounidenses y que los debates se desarrollaran en un entorno controlado, con tiempos y estructuras definidos, a diferencia de las discusiones espontáneas de la vida real. Carrasco, en ese sentido, matizó que, aunque la investigación se realizó en Estados Unidos, los mecanismos de personalización y persuasión probados podrían extrapolarse a otros contextos, como el español, donde también existe una fuerte presencia digital y una creciente exposición a contenidos generados por IA. Ante esta realidad, los expertos advierten que la capacidad de la IA para influir en la opinión pública requiere de una vigilancia constante y el desarrollo de marcos regulatorios claros que permitan distinguir entre persuasión legítima y manipulación, especialmente en un entorno digital cada vez más polarizado y expuesto a la desinformación.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por