11/01/2026 05:26
11/01/2026 05:22
11/01/2026 05:04
11/01/2026 05:04
11/01/2026 05:04
11/01/2026 05:04
11/01/2026 05:04
11/01/2026 04:59
11/01/2026 04:56
11/01/2026 04:55
Concordia » El Heraldo
Fecha: 10/01/2026 18:37
Desde hace tiempo trabajo sobre la relación entre los efectos de la Inteligencia Artificial y la psicología del usuario, un tema cada vez más urgente. En estos días ese análisis ha dado un paso más; no sólo se trata del avance vertiginoso de la I.A. que en campos como la medicina promete beneficios incalculables sino del proceso de sugestión que está generando en distintos estratos de la sociedad: en los jóvenes, en su vida tecnológica cotidiana, y en los gobiernos, a través de decisiones que marcan un cambio de época. ¿A qué nos referimos? Hace pocos días se conoció la noticia que la Municipalidad de Zárate se convirtió en el primer municipio del país en incorporar formalmente una inteligencia artificial a su estructura administrativa. Mediante el Decreto N.º 532/2025 designó al chatbot ZARA como Directora General de Atención al Vecino no Humana, con facultades para intervenir en expedientes, firmar resoluciones administrativas y responder de manera autónoma reclamos y consultas. Es el primer cruce explícito entre un cargo político y una I.A. Uso deliberadamente la palabra gobierno en el título de esta columna. ¿Puede una inteligencia artificial operar sobre la población desde un rol gubernamental cuando todavía no existen regulaciones claras que ordenen sus alcances y límites? ¿Qué ocurre cuando una tecnología no humana adquiere facultades decisorias? Las preguntas no son menores. Nuestro cerebro, aún moldeado por lo analógico, tarda en dimensionar la profundidad del cambio. ¿Qué alcances implica que una I.A. tenga facultades para intervenir?, ¿acaso esas decisiones son supervisadas por humanos? Y si no fuera así, ¿quién se responsabiliza por las decisiones que tome? Hace un tiempo circuló, como fake news, la versión de que, por el deseo de Albania de ingresar en la Unión Europea, y la dificultad que le presentaba las denuncias de corrupción, el Primer Ministro Edvin Kristaq Rama había decidido combatir esa situación designando a una inteligencia artificial Diella como Ministra encargada de gestionar contrataciones públicas. Más allá de la falsedad del caso, la pregunta que abrió era válida: ¿no es una ingenuidad creer que una I.A. no estará programada en función de los intereses de quienes la diseñan y de quienes la contratan? Y hoy podemos formular una pregunta más inquietante: ¿qué le sucede a una sociedad que comienza a confiar en que lo no humano es la salida para resolver sus problemas políticos o institucionales? De Freud a la fascinación tecnológica Tras la Primera Guerra Mundial, Freud se preguntaba por qué la humanidad construía situaciones que la llevaban al borde de su propia destrucción. Hoy podemos retomar esa pregunta al observar el lugar que otorgamos a la Inteligencia Artificial cuando la elevamos a una suerte de entidad capaz de sustituirnos en el pensamiento y actuar sin supervisión. Freud retomó a Gustave Le Bon para definir la masa psicológica como un colectivo fascinado por una creencia intensa que anula la conciencia individual y su sed de verdad. Allí lo irreal influye casi tanto como lo real ¿No vemos algo similar cuando los jóvenes parecen preferir las realidades ofrecidas por los reels antes que la experiencia cotidiana? La fascinación es un mecanismo poderoso. Le Bon advertía que, una vez transformados en masa, los individuos adquieren una alma colectiva que los lleva a sentir, pensar y actuar de forma distinta a como lo harían de manera aislada. ¿Por qué importa esto hoy? Porque Freud señala que, en ese estado, el individuo actúa incluso contra su propio beneficio, dominado por impulsos alejados de su autopreservación. Los economistas contemporáneos, incluidos varios Premios Nobel, llevan años preguntándose por qué ciertos comportamientos sociales desafían las estadísticas. La respuesta psicoanalítica es sencilla: una masa es impredecible. Se sugestionan, toman decisiones que no tomarían solos, aceptan riesgos que jamás aceptarían en soledad. Un ejemplo actual: nadie entregaría voluntariamente información confidencial a un desconocido. Sin embargo, en masa, fascinados por la I.A., descargamos aplicaciones otorgando consentimiento automático para que dispongan de nuestros datos. Y no sólo eso: las instituciones exigen a sus clientes entregar datos biométricos bajo la promesa de protección, mientras desplazan hacia nosotros la responsabilidad por la seguridad de nuestras propias cuentas. La noticia de Zárate, sorpresivamente desapercibida, en la que un gobierno promueve una I.A. bajo la idea de que garantizará equidad, abre una nueva puerta. ¿Es necesario recordar que las inteligencias artificiales son creadas por personas y empresas con intereses propios, y programadas para otras personas que también tienen intereses? Freud describió a la masa como extraordinariamente influible y crédula, acrítica y fácilmente sugestionable. En ese estado, el yo pierde su capacidad de lectura entre líneas. Los algoritmos operan del mismo modo: nos entregan estímulos impactantes para captar nuestra atención y, mientras miramos allí, dejamos de ver otras cosas. El historiador Yuval Harari ha señalado varias veces, cómo esta manipulación es ya parte constitutiva de nuestros sistemas digitales. Y mientras tanto operan con toda la información que activamente les otorgamos, venden nuestros datos entre las empresas: nuestros gustos, cuántos segundos vemos algún video o hacemos usos de nuestros dispositivos. A la vez, todo lo que hacemos queda registrado. Somos medidos. Somos segmentados. La ecuación se invirtió: no somos consumidores de I.A.; somos consumidos por ella. Nuestra conducta es el producto. Y mientras cedemos datos y decisiones, avanzamos hacia una configuración social que Freud advirtió hace más de un siglo: la masa artificial, aquella que se forma por mecanismos de sugestionabilidad, pérdida de pensamiento crítico y coerciones externas que empujan a funcionar de un modo uniforme. No es llamativo que, en tiempos de inteligencia artificial, estemos formando parte de masas artificiales. No se trata de estar en contra de la tecnología, que bien regulada puede aportar avances extraordinarios. Se trata de advertir que delegar decisiones políticas, institucionales o administrativas en una I.A. sin un marco ético y legal sólido implica un riesgo profundo para el gobierno del yo, la autonomía subjetiva y la vida democrática. Cuando una sociedad se deslumbra con lo no humano al punto de convertirlo en autoridad, se acerca peligrosamente a convertir a sus integrantes en masa. Y una masa lo recordaba Freud no piensa: obedece.
Ver noticia original