22/10/2025 15:51
22/10/2025 15:50
22/10/2025 15:48
22/10/2025 15:48
22/10/2025 15:44
22/10/2025 15:43
22/10/2025 15:43
22/10/2025 15:43
22/10/2025 15:42
22/10/2025 15:41
» Corrienteshoy
Fecha: 22/10/2025 13:21
El inventor del chatbot se opone a la propia IA Joseph Weizenbaum, creador de ELIZA en 1966, pasó de pionero a crítico de la inteligencia artificial, advirtiendo que confundir el cálculo con juicio humano degrada nuestra dignidad y nubla la responsabilidad. Del laboratorio al desencanto En el MIT, Weizenbaum concibió ELIZA como una sátira técnica: un guion de psicoterapeuta que devolvía preguntas en función de reglas simples y coincidencias de palabras. El programa sorprendió por la facilidad con la que muchos le atribuían comprensión y empatía; a ese sesgo se le llamaría “efecto ELIZA”. La célebre escena de su secretaria, que pidió intimidad para seguir conversando con la máquina, lo dejó inquieto: no eran los méritos del software, era la tendencia a proyectar humanidad sobre cadenas de símbolos. Nacido en Berlín en 1923, Weizenbaum desarrolló una sensibilidad aguda ante cualquier mecanismo de deshumanización, algo que atravesó su obra y su giro crítico. La experiencia de ver cómo un experimento modesto suscitaba transferencias afectivas le llevó a una pregunta incómoda: si una broma informática provocaba apego, qué ocurriría cuando las máquinas fueran más persuasivas? En los setenta, su libro Computer Power and Human Reason afiló el argumento central: los ordenadores pueden optimizar, como ahora vemos en el casino online, pero elegir exige valores y contexto moral. Ceder esa elección a sistemas automáticos, para Weizenbaum, podía ser una amenaza para las sociedades que externalizan el juicio. Por lo tanto, había que utilizar estas herramientas de una forma crítica. Un debate que vuelve con cada chatbot El redescubrimiento de ELIZA tras el auge de los modelos conversacionales recuerda hasta qué punto seguimos tropezando con la misma piedra. Los grandes modelos de lenguaje predicen la “siguiente palabra” con fluidez, pero su pericia estadística no equivale a intención de entendimiento. Por eso son herramientas ideales para servicios de soporte técnico de una ruleta online de Betfair, por ejemplo, pero no para algo que requiera el conocimiento y entendimiento de la psicología humana. La crítica de Weizenbaum hacia esta tecnología es también técnica. Veía en la informatización una “contrarrevolución” que reforzaba jerarquías y reducía a las personas a perfiles gestionables. Para él, automatizar decisiones públicas sin discusión en banca, seguros, justicia o salud podría erosionar la igualdad de trato y convertir la excepción humana en “ruido” a eliminar. Frente a la promesa de reemplazar profesionales de cuidado por chats supuestamente empáticos, el ingeniero creía que la presencia humana no debería ser un lujo, más bien un requisito que legitima la decisión. Su tesis pone freno a la delegación acrítica: que una máquina pueda decidir no implica que deba elegir por nosotros. Hoy, con chatbots incrustados en el trabajo, la escuela y la administración, su mirada resulta incómodamente vigente. El riesgo no es que “despierten”, sino que nos acostumbremos a renunciar al juicio y al diálogo responsables. Weizenbaum proponía un gesto simple y exigente a la vez: usar las máquinas sin idealizarlas, entender su potencia sin convertirla en autoridad moral y reservar para nosotros la carga de elegir, con todo lo que implica de duda, empatía y rendición de cuentas. Ese límite, sugería, es lo que preserva nuestra humanidad en una época fascinada por la imitación del lenguaje.
Ver noticia original