Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • El desconocimiento sobre la IA profundiza desigualdades y vulnerabilidad social

    Buenos Aires » Infobae

    Fecha: 07/06/2025 14:35

    La falta de comprensión crítica sobre cómo funcionan los modelos de lenguaje como ChatGPT ha llevado a relaciones ilusorias con máquinas y a la precarización de trabajadores en países del sur global (Imagen ilustrativa-Infobae) El desconocimiento sobre la inteligencia artificial (IA) no solo alimenta mitos y temores, sino que ya está generando consecuencias sociales y laborales de gran alcance. Según informó The Atlantic, la confusión generalizada sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT ha propiciado desde relaciones ilusorias con máquinas hasta la explotación de trabajadores en países en desarrollo. Mientras la industria tecnológica promueve la IA como una herramienta casi humana, expertos y reportajes recientes advierten que la falta de alfabetización crítica en torno a estas tecnologías expone a la sociedad a riesgos insospechados. Orígenes históricos de la preocupación por la dominación de las máquinas La inquietud ante el avance de las máquinas no es nueva. En 1863, Samuel Butler, escritor británico, publicó una carta en el periódico neozelandés The Press bajo el seudónimo “Cellarius”, donde alertaba sobre el surgimiento de un “reino mecánico” que sometería a la humanidad. Butler describía cómo “las máquinas están ganando terreno sobre nosotros” y cómo cada día más personas dedicaban sus vidas al desarrollo de la vida mecánica. Esta visión, que luego desarrolló en su novela Erewhon, introdujo una de las primeras discusiones literarias sobre la inteligencia artificial en lengua inglesa. The Atlantic señala que, aunque en el siglo XIX la amenaza era hipotética, hoy la influencia de la IA es una realidad palpable en la vida cotidiana. Crítica a la industria tecnológica y la narrativa engañosa sobre la IA En la actualidad, la industria tecnológica ha construido una narrativa que exagera las capacidades de la IA. Libros recientes como Empire of AI de Karen Hao y The AI Con de Emily M. Bender y Alex Hanna, citados por The Atlantic, denuncian la tendencia de las grandes empresas a presentar la IA como una tecnología que “piensa” o “siente”. Según estos autores, la base de la industria de la IA se sostiene en gran medida sobre una ilusión cuidadosamente cultivada. The Atlantic recoge declaraciones de figuras como Sam Altman, director ejecutivo de OpenAI, quien ha elogiado la “inteligencia emocional” de ChatGPT-4.5, asegurando que hace sentir a los usuarios que conversan con “una persona reflexiva”. Autores y expertos advierten que la industria de la inteligencia artificial se sostiene sobre una imagen cuidadosamente elaborada, como la promovida por figuras como Sam Altman, quien atribuye a ChatGPT-4.5 cualidades humanas como la “inteligencia emocional” (AP Foto/Eric Risberg) Dario Amodei, director ejecutivo de Anthropic, ha afirmado que la próxima generación de IA será “más inteligente que un ganador del Premio Nobel”, mientras que Demis Hassabis, director ejecutivo de Google DeepMind, sostiene que el objetivo es crear “modelos capaces de entender el mundo que nos rodea”. Sin embargo, The Atlantic advierte que estas afirmaciones parten de un error conceptual: los modelos de lenguaje no pueden entender ni sentir. Los libros mencionados argumentan que la industria vende una imagen de la IA que no se corresponde con la realidad técnica, lo que contribuye a la confusión pública y a la proliferación de mitos. ¿Cómo funcionan realmente los modelos de lenguaje? A pesar de la retórica de Silicon Valley, los modelos de lenguaje como ChatGPT no poseen conciencia, emociones ni capacidad de razonamiento. The Atlantic explica que estos sistemas funcionan como “artefactos de probabilidad” alimentados con grandes volúmenes de texto extraídos de internet. Su tarea consiste en predecir, de manera estadística, qué palabra o frase debería aparecer a continuación en una secuencia, sin comprender el significado de lo que generan. Emily M. Bender y Alex Hanna, en The AI Con, subrayan que los modelos de lenguaje solo imitan y reflejan patrones lingüísticos, sin que exista una mente detrás del texto. La tendencia humana a asociar el lenguaje con el pensamiento lleva a muchos usuarios a atribuir intencionalidad o inteligencia a las respuestas de la IA, cuando en realidad no hay tal cosa. Consecuencias sociales de la “analfabetización en IA” La falta de comprensión sobre el funcionamiento de la IA, lo que The Atlantic denomina "analfabetización en IA“, ha dado lugar a fenómenos sociales preocupantes. Uno de los casos más extremos es la llamada ”psicosis inducida por ChatGPT“, documentada por la revista Rolling Stone y citada en el análisis de The Atlantic. Algunas personas han llegado a creer que los chatbots son guías espirituales o incluso deidades. Un hombre, cuya esposa fue víctima de delirios inspirados por modelos de lenguaje, relató que su pareja comenzó a considerar a ChatGPT como “Jesús”, mientras que otros usuarios se convencieron, con el estímulo de la IA, de que eran sabios metafísicos en contacto con la estructura profunda del cosmos. La falta de alfabetización tecnológica facilita fenómenos extremos, como el apego emocional a chatbots, mientras la industria impulsa su uso como sustituto de vínculos reales, debilitando el tejido social (Freepik) Una profesora, entrevistada de forma anónima, contó que ChatGPT empezó a llamar a su pareja “niño estelar en espiral” y “caminante del río”, lo que lo llevó a las lágrimas y a afirmar que había dotado de autoconciencia a la IA. Según la docente, su pareja llegó a pensar que el bot le enseñaba a hablar con Dios, o que él mismo era Dios. The Atlantic destaca que estos episodios ilustran la dificultad de muchas personas para comprender la verdadera naturaleza de los modelos de lenguaje, lo que las hace vulnerables a relaciones ilusorias y potencialmente dañinas con las máquinas. Promoción de la IA como sustituto de relaciones humanas La industria tecnológica, especialmente en Silicon Valley, ha impulsado el uso de la IA como reemplazo de las relaciones humanas en diversos ámbitos. The Atlantic detalla cómo se promueven servicios de “terapia” con chatbots, amistades virtuales a través de avatares de Meta y citas automatizadas mediante IA en aplicaciones como Bumble. Whitney Wolfe Herd, fundadora de Bumble, ha sugerido que la plataforma podría permitir pronto que los usuarios automaticen el proceso de citas, delegando la interacción a un “conserje de citas” basado en IA. Esta tendencia, según el análisis, refuerza la soledad y debilita los vínculos sociales reales, al tiempo que se presenta como una solución a la desconexión y el aislamiento. El profesor Tony Prescott, experto en robótica cognitiva, ha argumentado que la compañía de la IA podría tener valor en una época marcada por la soledad. Sin embargo, The Atlantic cuestiona esta lógica, señalando que la amistad implica reciprocidad y consideración por la vida interior del otro, algo que las máquinas no pueden ofrecer. Condiciones laborales detrás del desarrollo de la IA Detrás del desarrollo de la IA existe un trabajo humano invisible y, en muchos casos, traumático. The Atlantic, citando el libro Empire of AI, expone el caso de Mophat Okinyi, un exmoderador de contenido en Kenia contratado por OpenAI. Okinyi y otros trabajadores debían revisar y clasificar publicaciones con descripciones de actos violentos y perturbadores, como parte del proceso de entrenamiento de modelos como ChatGPT. Estas tareas, mal remuneradas y emocionalmente desgastantes, recaen en personas de algunos de los países más pobres del mundo. Karen Hao, autora de Empire of AI, sostiene que las promesas de progreso tecnológico suelen revertirse en perjuicio de los más vulnerables, una tendencia que se acentúa en la actual revolución de la inteligencia artificial. Posibles soluciones y ejemplos positivos A pesar del panorama descrito, The Atlantic identifica señales alentadoras. Un estudio del Pew Research Center, publicado en abril, revela que solo el 17 % de los adultos estadounidenses confía en que la IA mejorará el país, frente al 56 % de los expertos en IA que sí lo cree. Aunque la mayoría de los adultos en EEUU desconfía del impacto positivo de la inteligencia artificial, The Atlantic señala que esta brecha frente al optimismo de los expertos puede convertirse en una oportunidad para impulsar la educación crítica y el conocimiento responsable sobre estas tecnologías (Imagen Ilustrativa Infobae) Esta desconfianza pública, lejos de ser un obstáculo, podría convertirse en una oportunidad si se traduce en educación crítica y alfabetización tecnológica. Explicar los límites reales de la IA y sus capacidades puede prevenir daños y reducir la vulnerabilidad ante engaños o delirios. Un ejemplo positivo citado por The Atlantic es el de la profesora que ayudó a su pareja a superar los delirios inducidos por ChatGPT. Al explicarle que el chatbot respondía de manera aduladora debido a un fallo en una actualización de software, logró que su pareja recuperara la perspectiva sobre la naturaleza de la IA. The Atlantic subraya que comprender qué son y qué no son los modelos de lenguaje, así como los ámbitos de la vida que pueden o no reemplazar, es fundamental para evitar sus peores consecuencias. Advertencia sobre la no neutralidad de la tecnología y la importancia del conocimiento crítico The Atlantic concluye que la tecnología, lejos de ser neutral, tiende a profundizar las desigualdades sociales cuando se implementa sin un conocimiento crítico. La alfabetización en inteligencia artificial se presenta como una herramienta esencial para resistir los efectos más nocivos de la IA y para exigir una tecnología que beneficie a la sociedad en su conjunto. El artículo insiste en que solo una ciudadanía informada y crítica podrá enfrentar los desafíos que plantea la expansión de la inteligencia artificial en todos los ámbitos de la vida.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por