Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • “La gente está empezando a hablar como ChatGPT”, advierte el experto en evolución del lenguaje Adam Aleksic

    Buenos Aires » Infobae

    Fecha: 21/08/2025 14:45

    El proceso de los chatbots convierte mensajes en "embeddings", perdiendo variación y contexto humano (Imagen ilustrativa Infobae) “Las personas están empezando a hablar como ChatGPT”, advirtió Adam Aleksic en una columna para The Washington Post, donde analizó cómo el lenguaje generado por chatbots de inteligencia artificial está influyendo de manera creciente en la forma en que los humanos se comunican. El autor del libro Algospeak: How Social Media Is Transforming the Future of Language (Algospeak: Cómo las redes sociales están transformando el futuro del lenguaje), conocido como el “nerd de la etimología” y especialista en la evolución del lenguaje, sostuvo que lo inquietante no es solo la sofisticación de estos sistemas, sino el hecho de que “las palabras sobrerrepresentadas en las respuestas de los chatbots están apareciendo cada vez más en la conversación humana”. El lenguaje generado por chatbots de inteligencia artificial está influyendo en la forma en que los humanos se comunican, según el lingüista Adam Aleksic (REUTERS) Lenguaje de la inteligencia artificial: cómo funciona y qué se pierde Aleksic explicó que, aunque los usuarios de ChatGPT, Claude, Gemini y otros chatbots de inteligencia artificial creen que están interactuando en el mismo idioma, en realidad se trata de lenguajes distintos. Según detalló, “en vez de procesar el texto como un humano, el chatbot convierte tu mensaje en un embedding —un grupo de números representados en un ‘espacio vectorial’, algo así como coordenadas en un mapa”. El lingüista aclaró que, al igual que un mapa es una representación aplanada de un territorio, este embedding es una representación aplanada del lenguaje, lo que implica que “cierta cantidad de variación y contexto humano necesariamente se pierde”. El autor del libro "Algospeak" planteó sesgos en el entrenamiento y revisión de modelos de lenguaje refuerzan el uso excesivo de ciertas palabras (REUTERS) El proceso de respuesta de las plataformas, según Aleksic, se basa en predicciones palabra por palabra, guiadas por los datos de entrenamiento y el aprendizaje por refuerzo, ambos con sesgos inherentes. “Lo que parece inglés para ti es en realidad un simulacro del habla humana real”, afirmó el autor en su columna. Lo preocupante, subrayó, es que “ahora, con cientos de millones de personas interactuando regularmente con chatbots, los humanos que hablan inglés están empezando a hablar como el comunicador inhumano del otro lado”. El caso de “delve” y otras palabras sobrerrepresentadas Uno de los ejemplos más claros que expuso Aleksic es el uso desproporcionado de la palabra “delve” (“profundizar” o “indagar”) en los textos generados por ChatGPT, en comparación con el uso habitual en el inglés hablado o escrito por humanos. Citó investigaciones de Tom S. Juzek y Zina B. Ward de la Florida State University, quienes atribuyeron este fenómeno a “pequeños sesgos y errores en el proceso de retroalimentación humana que se acumulan con el tiempo”. Asimismo, el autor explicó que los empleados encargados de revisar las salidas de los modelos de lenguaje suelen ser trabajadores de bajos ingresos en países como Nigeria y Kenia, donde “delve” se utiliza con mayor frecuencia que en el inglés estadounidense o británico. “Pequeñas sobrerrepresentaciones léxicas pueden haber sido reforzadas en el modelo —a veces incluso más que en el propio uso de los revisores”, escribió Aleksic, quien añadió que las condiciones laborales y la presión por el tiempo pueden haber hecho que los revisores no detectaran la frecuencia de “delve”, lo que llevó a una amplificación aún mayor. Palabras sobrerrepresentadas en respuestas de IA, como "delve" ("profundizar" en ingles), aparecen cada vez más en la conversación humana (Imagen Ilustrativa Infobae) También mencionó otros ejemplos de palabras sobrerrepresentadas en el idioma inglés, como “intricate” (“intrincado”), “commendable” (“encomiable”) y “meticulous” (“meticuloso”). Señaló que este exceso de uso ya está permeando la cultura global. Desde el lanzamiento de ChatGPT a finales de 2022, “la aparición de ‘delve’ en publicaciones académicas aumentó diez veces, a medida que los investigadores comenzaron a recurrir a la IA para redactar sus artículos”. El propio autor confesó: “Solía disfrutar usar la palabra ‘delve’; ahora trato de evitarla”. Según expuso en el artículo de opinión, a medida que científicos y escritores se volvieron más conscientes de este fenómeno, intentaron “sonar menos como una IA”. No obstante, la mayoría de las personas probablemente desconoce estos sesgos de los chatbots hacia ciertas palabras. Aleksic argumentó que los usuarios asumen que ChatGPT se expresa en un inglés “normal”, porque así lo sugiere la interfaz de usuario. Además, creen que los textos cotidianos que encuentran también son inglés normal, aunque podrían haber sido generados por IA. Sobre esto, el lingüista advirtió: “Con el tiempo, resulta cada vez más fácil confundir la representación con la realidad”. La frecuencia de palabras generadas por chatbots de IA afecta la disponibilidad léxica en el lenguaje humano (EFE) De la escritura al habla: cuando el vocabulario de la IA se integra El fenómeno no se limita a la escritura. Aleksic citó un estudio publicado en Scientific American el mes pasado, que reveló que las personas comenzaron a decir “delve” con mayor frecuencia en conversaciones espontáneas. “Esto ya no es obra de la IA; hemos empezado a interiorizar sus sesgos y a repetirlos por nuestra cuenta”, sostuvo. Incluso quienes intentan evitar las palabras más asociadas a ChatGPT no están exentos, ya que “tantas palabras están apareciendo con una frecuencia antinatural que no podemos evitarlas todas”. El especialista Aleksic se preguntó: “¿También se supone que dejemos de usar ‘inquiry’ (‘consulta’), otra palabra sobreutilizada por los chatbots? ¿O ‘surpass’ (‘superar’)? Hay demasiado que rastrear”. Advirtió también que la tendencia a adoptar sin querer el vocabulario de los modelos de lenguaje probablemente aumentará, a medida que el círculo de textos generados por IA, textos humanos que no sabemos que son de IA y el habla humana real se acelera. En el campo de la psicolingüística, explicó, se entiende que “la frecuencia de representación de una palabra afecta su disponibilidad en el léxico mental de las personas —el ‘diccionario’ de opciones posibles para usar en la conversación”. Esencialmente, “cuanto más vemos una palabra representada, más intuitivo resulta usarla nosotros mismos”. Fronteras borrosas entre lenguaje humano y artificial Aleksic reflexionó que es normal que nuestros mapas mentales del lenguaje evolucionen, pero ahora “estamos en un bucle de retroalimentación donde nuestros ‘mapas’ están convergiendo con los de los chatbots”. Ambos difieren del paisaje real —la inmensa variedad de formas en que los humanos hablan—, pero la confusión dificulta cada vez más distinguir entre el lenguaje humano genuino y el generado artificialmente. “A medida que esta distinción se vuelve más difícil de discernir, seguiremos desdibujando las líneas de la realidad, usando cíclicamente esa confusión para construir nuestras nuevas realidades”, escribió el autor. Considerando que “a medida que los modelos de IA continúan entrenándose tanto con su propia producción como con la escritura humana influida por la IA, la omnipresencia del lenguaje de los modelos de lenguaje grande (‘LLM-speak’) solo se intensificará”. Según Adam Aleksic, la transformación del lenguaje por IA es un reflejo de cambios sociales y cognitivos más profundos (REUTERS) Implicancias sociales y cognitivas de la transformación lingüística Desde el punto de vista lingüístico, Adam Aleksic aclaró que no hay nada malo en esto: “La palabra ‘delve’ no es peor para tu cerebro que sus sinónimos”. Sin embargo, advirtió que el lenguaje es un presagio de cambios sociales más profundos. “Existen muchas otras distorsiones mucho más insidiosas que también están codificadas en los modelos de lenguaje grande. Sesgos raciales, de género y políticos —todos estos probablemente se entrenan en los modelos de manera similar a los sesgos lingüísticos, pero son más difíciles de medir de manera definitiva”, sentenció con seguridad, sobre el futuro de estas tecnologías.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por