24/11/2025 15:48
24/11/2025 15:47
24/11/2025 15:47
24/11/2025 15:46
24/11/2025 15:46
24/11/2025 15:46
24/11/2025 15:46
24/11/2025 15:45
24/11/2025 15:45
24/11/2025 15:45
Buenos Aires » Infobae
Fecha: 24/11/2025 14:33
El nuevo enfoque de Nested Learning, inspirado por la dinámica de las ondas cerebrales humanas, añade niveles y escalas temporales al procesamiento de la memoria artificial. (Imagen Ilustrativa Infobae) La inteligencia artificial enfrenta uno de sus mayores desafíos: lograr aprendizaje continuo y retener información a largo plazo, de manera similar al funcionamiento del cerebro humano. Para abordar esta limitación, Google Research ha presentado Nested Learning (Aprendizaje Anidado), un nuevo paradigma de aprendizaje automático inspirado en la dinámica de las ondas cerebrales. Este enfoque busca dotar a los modelos de IA de una memoria más robusta y la capacidad de incorporar conocimientos de forma sostenida. La propuesta fue presentada en la 39ª Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025) y podría marcar un antes y un después en el desarrollo de sistemas de IA más adaptativos y eficientes. A pesar de los avances en modelos de lenguaje y arquitecturas profundas, la IA actual sigue siendo esencialmente estática tras su entrenamiento inicial. Los grandes modelos de lenguaje solo pueden ejecutar tareas aprendidas durante la fase de preentrenamiento, sin incorporar nuevas habilidades o conocimientos de manera continua. La comunidad científica internacional discute la evolución del aprendizaje automático y la integración de conceptos inspirados en el cerebro humano durante paneles donde se exponen investigaciones innovadoras. (Imagen Ilustrativa Infobae) Según Google Research, esta limitación se asemeja a la amnesia anterógrada, una condición neurológica en la que una persona no puede formar nuevos recuerdos a largo plazo, quedando su experiencia restringida al presente inmediato y a recuerdos previos al inicio del trastorno. De forma análoga, los modelos solo pueden operar con la información contenida en su ventana de contexto o en los parámetros almacenados antes del final del preentrenamiento, sin capacidad para consolidar nueva información en su memoria a largo plazo. El cerebro humano destaca por su eficiencia en el aprendizaje continuo, una capacidad atribuida a la neuroplasticidad y a la consolidación de la memoria en diferentes fases. Google Research explica que la formación de la memoria a largo plazo implica al menos dos procesos complementarios: una consolidación rápida u “online”, que estabiliza los recuerdos poco después de su formación, y una consolidación “offline”, que reorganiza y refuerza la memoria durante el sueño mediante la interacción de ondas cerebrales de distintas frecuencias. El desarrollo de Nested Learning en Google Research involucra a equipos multidisciplinarios que buscan dar respuesta a una de las mayores limitaciones de la inteligencia artificial actual. (Imagen Ilustrativa Infobae) En los modelos de IA actuales, la ausencia de mecanismos equivalentes a estas fases limita su capacidad para almacenar y actualizar conocimientos de manera duradera. Nested Learning, desarrollado por Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni en Google Research, propone una arquitectura de aprendizaje automático que representa el modelo como un sistema de problemas de optimización anidados, cada uno con su propio flujo de contexto y frecuencia de actualización. Esta estructura permite que los modelos procesen y almacenen información en diferentes niveles y escalas temporales, replicando la jerarquía de procesamiento de las ondas cerebrales humanas. Según los investigadores, Nested Learning generaliza la visión tradicional de la memoria en IA, superando la dicotomía entre memoria a corto y largo plazo y permitiendo una gestión más flexible y eficiente del conocimiento. Este paradigma supera la tradicional dicotomía entre memoria a corto y largo plazo presente en modelos anteriores, al permitir que la inteligencia artificial gestione la abstracción y consolidación de datos de forma más dinámica y precisa. (Imagen Ilustrativa Infobae) El enfoque de Nested Learning se basa en la idea de que cada componente del modelo de IA puede actualizarse a diferentes frecuencias, de manera análoga a las distintas ondas cerebrales que intervienen en la consolidación de la memoria. Google Research detalla que, en este paradigma, los optimizadores y las redes neuronales funcionan como sistemas de memoria asociativa que comprimen y almacenan información relevante en sus parámetros. Esta organización multinivel permite que el modelo procese datos con distintos grados de abstracción y en diferentes escalas de tiempo, facilitando la integración de nueva información sin perder conocimientos previos. Para demostrar la eficacia de Nested Learning, Google Research ha desarrollado el módulo HOPE, una arquitectura auto-referencial que combina el aprendizaje anidado con un sistema de memoria continua. En pruebas de modelado de lenguaje y tareas de razonamiento, HOPE ha superado a modelos tradicionales como Transformers, DeltaNet y Titans, tanto en precisión como en capacidad de aprendizaje continuo. El desarrollo y prueba de módulos auto-referenciales como HOPE requieren simulaciones exhaustivas y visualizaciones del flujo de datos. (Imagen Ilustrativa Infobae) Los resultados, presentados en la conferencia NeurIPS 2025, muestran que HOPE logra menores niveles de perplejidad y mayores tasas de acierto en benchmarks de lenguaje y razonamiento, lo que sugiere un avance relevante en la capacidad de los modelos para adaptarse y aprender de manera sostenida. La introducción de Nested Learning por parte de Google Research abre nuevas posibilidades para el desarrollo de sistemas de IA capaces de aprender y adaptarse de forma continua, superando las limitaciones de memoria y actualización que afectan a los modelos actuales. Este enfoque, inspirado en la neurociencia, no solo mejora la eficiencia y flexibilidad de la memoria en IA, sino que también sienta las bases para arquitecturas más expresivas y adaptativas, con potencial impacto en áreas como el procesamiento del lenguaje, la visión por computadora y la robótica. Nested Learning permite que los modelos computacionales compuestos por múltiples niveles procesen datos con distintos grados de abstracción y escalas temporales, acercando la inteligencia artificial a la capacidad de aprendizaje y memoria del cerebro humano, según concluye Google Research.
Ver noticia original