Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • El avance que imita el cerebro y desafía los límites de la IA

    Buenos Aires » Infobae

    Fecha: 16/07/2025 12:34

    El avance en inteligencia artificial incorpora la “dimensión altura” y reconfigura los límites del aprendizaje artificial (Imagen Ilustrativa Infobae) Un nuevo avance en inteligencia artificial (IA) promete acercar a las máquinas un paso más hacia la complejidad del cerebro humano, al tiempo que reaviva el debate sobre los límites y riesgos de equiparar ambos sistemas. Investigadores del Rensselaer Polytechnic Institute en Nueva York y la City University of Hong Kong han presentado una arquitectura de redes neuronales artificiales que incorpora una dimensión adicional, denominada “altura”, con el objetivo de imitar de manera más fiel la estructura y el funcionamiento del cerebro. Sin embargo, voces críticas desde la neurociencia advierten sobre los peligros de trasladar metáforas tecnológicas al entendimiento del aprendizaje humano, subrayando que la IA y el cerebro operan bajo principios radicalmente distintos. Según Popular Mechanics, este avance técnico y la controversia que lo rodea marcan un nuevo capítulo en la relación entre tecnología y biología, con implicaciones que trascienden el ámbito científico. La arquitectura inspirada en el cerebro pretende revolucionar la cognición en los sistemas inteligentes (Imagen Ilustrativa Infobae) La “dimensión altura”: una nueva frontera en redes neuronales artificiales El núcleo del avance presentado por Ge Wang y Feng-Lei Fan reside en la introducción de la “dimensión altura” en las redes neuronales artificiales, un concepto que busca añadir complejidad estructurada a los modelos de IA. Tradicionalmente, estas redes se han construido en torno a dos parámetros: la anchura, que corresponde al número de nodos en cada capa, y la profundidad, que indica la cantidad de capas apiladas. Wang, coautor del estudio publicado en la revista Patterns en abril, utiliza una analogía urbana para explicar el nuevo enfoque: “Imagine una ciudad: la anchura es el número de edificios en una calle, la profundidad es cuántas calles atraviesa, y la altura es cuán altos son los edificios. Cualquier habitación en cualquier edificio puede comunicarse con otras habitaciones de la ciudad”, explicó Wang en declaraciones recogidas por Popular Mechanics. La clave de esta arquitectura radica en los enlaces intra-capa y los bucles de retroalimentación. Los enlaces intra-capa permiten conexiones laterales entre neuronas dentro de una misma capa, emulando las conexiones presentes en la columna cortical del cerebro, asociadas a funciones cognitivas superiores. Por su parte, los bucles de retroalimentación introducen mecanismos en los que las salidas de la red pueden influir en sus propias entradas, un proceso análogo a la señalización recurrente en el cerebro. Según Wang, “juntos, ayudan a que las redes evolucionen con el tiempo y se estabilicen en patrones significativos, como cuando el cerebro reconoce un rostro incluso en una imagen borrosa”. Esta estructura, según los autores, enriquece la capacidad de la IA para refinar decisiones de manera iterativa, acercándose al razonamiento humano. Las redes neuronales con enlaces intra-capa imitan la conectividad de la corteza cerebral (Imagen Ilustrativa Infobae) Inspiración biológica y el legado de Hopfield y Hinton La búsqueda de inspiración en la biología no es nueva en el campo de la inteligencia artificial. Desde sus orígenes, las redes neuronales artificiales han intentado emular el funcionamiento de las neuronas en el cerebro. Dos figuras clave en este proceso, los físicos John J. Hopfield y Geoffrey E. Hinton, han sido reconocidos por sus contribuciones fundamentales, hasta el punto de recibir el Premio Nobel en 2023, según Popular Mechanics. Los modelos desarrollados a partir de sus investigaciones han transformado la tecnología y, al mismo tiempo, han abierto nuevas vías para comprender los misterios del cerebro humano. Sin embargo, la emulación biológica ha tenido límites claros. A pesar de los avances, la IA no ha logrado alcanzar la llamada inteligencia general artificial (AGI), es decir, la capacidad de pensar y adaptarse como un ser humano. El auge de los modelos de lenguaje de gran escala, como ChatGPT, se debe en parte a la introducción de la arquitectura “transformer” en 2017, que revolucionó el aprendizaje profundo al centrarse en mecanismos de atención. No obstante, esta innovación no ha sido suficiente para replicar la flexibilidad y profundidad del pensamiento humano. Limitaciones de la IA actual y el estancamiento del crecimiento exponencial El desarrollo de la IA ha experimentado un crecimiento acelerado en los últimos años, impulsado por la creencia en la “ley de escalado”: la idea de que aumentar el tamaño de los modelos y la cantidad de datos conduciría a mejoras continuas. Sin embargo, según Popular Mechanics, en 2024 varias empresas del sector han constatado que este crecimiento exponencial se ha detenido. La arquitectura “transformer”, aunque poderosa, presenta limitaciones inherentes que impiden a la IA alcanzar la AGI. Ge Wang sostiene que el problema no radica en añadir simplemente más complejidad, sino en incorporar una complejidad estructurada que refleje la lógica de la inteligencia natural. “Nuestro objetivo es la complejidad estructurada, añadir dimensiones y dinámicas que reflejen cómo surge la inteligencia en la naturaleza y cómo funciona lógicamente, no solo apilar más capas o parámetros”, explicó Wang en el estudio citado por Popular Mechanics. La integración de enlaces intra-capa y bucles de retroalimentación podría permitir a los modelos relacionar, reflexionar y refinar sus salidas, haciéndolos más inteligentes y eficientes energéticamente. Beneficios potenciales y aplicaciones en neurociencia La nueva arquitectura propuesta no solo aspira a mejorar la memoria, percepción y cognición de los sistemas de IA, sino que también podría tener aplicaciones en el estudio de enfermedades neurológicas. Los autores del estudio sugieren que estos modelos podrían servir como herramientas para investigar trastornos como el Alzheimer y la epilepsia, al ofrecer un marco más realista para explorar la cognición humana. Wang destaca que los bucles de retroalimentación pueden inducir “transiciones de fase” en los sistemas de IA, generando comportamientos emergentes que no estaban presentes en los componentes individuales. “Para la IA, esto podría significar que un sistema pase de respuestas vagas o inciertas a otras más seguras y coherentes a medida que recopila más contexto o retroalimentación”, afirmó Wang. Estas transiciones podrían marcar el punto en el que la IA realmente “comprende” una tarea o patrón, de manera similar a la intuición humana. Además, la transparencia de los modelos podría aumentar, facilitando la comprensión de cómo la IA llega a determinadas conclusiones. Esto no solo beneficiaría el desarrollo tecnológico, sino que también abriría nuevas posibilidades para desentrañar los mecanismos del pensamiento humano. Expertos en neurociencia alertan sobre los riesgos de confundir el funcionamiento de la IA con el del cerebro humano (Imagen Ilustrativa Infobae) Críticas desde la neurociencia: los riesgos de equiparar cerebro e IA A pesar del entusiasmo por los avances técnicos, expertos en neurociencia advierten sobre los peligros de equiparar el cerebro humano con la inteligencia artificial. Iddo Gefen, investigador en neurociencia cognitiva, sostiene en un análisis publicado por el Los Angeles Times que estas metáforas pueden inducir errores graves en la comprensión tanto de la tecnología como de la mente humana. “El mayor peligro no es que estas metáforas nos confundan sobre cómo funciona la IA, sino que nos engañen sobre nuestros propios cerebros”, advirtió Gefen. A lo largo de la historia, la ciencia y la cultura popular han recurrido a metáforas tecnológicas para describir el cerebro: relojes, centralitas telefónicas, computadoras. La más reciente, que equipara el cerebro a un sistema de IA, ha comenzado a permear el lenguaje cotidiano y la educación. Términos como “entrenamiento”, “ajuste fino” y “optimización” se aplican ahora a procesos humanos, aunque, según Gefen, “no entrenamos, ajustamos ni optimizamos como lo hace la IA”. Esta confusión puede tener consecuencias negativas, como la tendencia a evaluar el aprendizaje humano únicamente en términos de resultados medibles, ignorando factores como la motivación o la pasión. Gefen ilustra este riesgo con un ejemplo educativo: dos niños aprenden piano con la ayuda de una aplicación inteligente que adapta las lecciones a su progreso. Uno aprende rápidamente pero detesta la práctica; el otro comete errores pero disfruta el proceso. Si solo se consideran los resultados, se podría concluir que el primero ha superado al segundo, sin tener en cuenta la experiencia subjetiva y la creatividad, elementos esenciales en el aprendizaje humano. Diferencias fundamentales entre el aprendizaje humano y el de la IA El debate sobre la singularidad humana se refuerza ante los últimos desarrollos en inteligencia artificial (Imagen Ilustrativa Infobae) El análisis de Gefen, recogido por el Los Angeles Times, subraya que la IA y el cerebro humano difieren en aspectos cruciales. La motivación, la creatividad y la memoria humana no pueden reducirse a procesos de entrenamiento algorítmico. Mientras que la IA puede almacenar información de manera casi perfecta, la memoria humana está diseñada para olvidar, actualizar y reinterpretar recuerdos en función de múltiples factores. “Una vida en la que las personas delegan la memoria a un sistema que recuerda casi todo no es una extensión del yo; rompe con los mecanismos que nos hacen humanos”, argumentó Gefen. El investigador advierte que la tendencia a externalizar procesos mentales a la IA puede llevar a una pérdida de las capacidades que han impulsado los grandes avances en ciencia y arte, los cuales a menudo surgen de la creatividad, el error y la reflexión. Un ejemplo citado es el descubrimiento de la penicilina por Alexander Fleming, resultado de un descuido afortunado más que de un proceso optimizado. Además, Gefen destaca el papel del "default mode network“, una red cerebral activa durante la ensoñación y la reflexión, que resulta fundamental para la imaginación y la autopercepción. Ignorar estos procesos en favor de modelos algorítmicos podría conducir a sistemas educativos y de salud mental defectuosos. El futuro de la IA: coexistencia y preservación de la singularidad humana De cara al futuro, Ge Wang prevé un escenario en el que las arquitecturas neuromórficas, inspiradas en el cerebro, coexistan con otros sistemas, incluidos los cuánticos. “La IA inspirada en el cerebro ofrece soluciones elegantes a problemas complejos, especialmente en percepción y adaptabilidad. Al mismo tiempo, la IA también explorará estrategias únicas de sistemas digitales, analógicos o incluso cuánticos”, afirmó Wang en Popular Mechanics. El investigador sugiere que el equilibrio ideal podría encontrarse en diseños híbridos que combinen elementos de la naturaleza y de la imaginación humana. Por su parte, Gefen insiste en la importancia de no permitir que la IA redefina la naturaleza humana. “Las consecuencias de esta confusión podrían ser desastrosas, no porque la IA sea inherentemente dañina, sino porque, en lugar de convertirla en una herramienta que complemente nuestras mentes, permitiremos que nos moldee a su imagen”, concluyó el neurocientífico en el Los Angeles Times.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por