06/12/2025 17:43
06/12/2025 17:42
06/12/2025 17:42
06/12/2025 17:41
06/12/2025 17:41
06/12/2025 17:41
06/12/2025 17:40
06/12/2025 17:40
06/12/2025 17:37
06/12/2025 17:36
Buenos Aires » Infobae
Fecha: 06/12/2025 16:47
El pionero de la IA señala que la competencia entre empresas y países acelera el desarrollo sin considerar los riesgos éticos y sociales Captura video) Geoffrey Hinton, conocido mundialmente como el padrino de la inteligencia artificial, ha dedicado más de medio siglo a investigar cómo aprenden las máquinas y a explorar los límites de la mente humana. En una entrevista exclusiva con el canal de YouTube de Gustavo Entrala, Hinton advierte que la tecnología que ayudó a crear podría transformarse en un “monstruo” fuera de control, capaz de poner en riesgo la supervivencia de la humanidad. Su decisión de abandonar Google y hablar abiertamente sobre los peligros de la IA marca un giro radical en la postura de uno de los científicos más influyentes del siglo. “Me llaman el padrino de la IA porque era el investigador más veterano y dirigía el programa en una reunión en Inglaterra en 2009. Al principio no era un apodo amable, pero ahora me gusta”, relató Hinton al inicio de la conversación, recordando sus inicios y el largo camino recorrido desde su tesis doctoral en 1977 hasta los avances que revolucionaron el campo. “Durante mucho tiempo, la IA no avanzó porque faltaban datos y potencia de cómputo. Solo cuando tuvimos grandes volúmenes de datos y chips GPU de NVIDIA, las redes neuronales empezaron a funcionar realmente bien”, explicó. El salto definitivo llegó en 2012, cuando junto a Alex Krizhevsky e Ilya Sutskever, demostró que su modelo superaba ampliamente a los sistemas tradicionales de visión por computadora. “Eso convenció a todos de que las redes neuronales eran el futuro”, afirmó. Un grupo de profesionales observa y analiza un gran procesador digital iluminado en el centro, rodeado de flujos de datos y circuitos virtuales, simbolizando la interacción entre la inteligencia humana y la inteligencia artificial en un entorno futurista. La imagen destaca la importancia de la colaboración y el desarrollo tecnológico en la era digital. (Imagen Ilustrativa Infobae) Hinton también compartió detalles sobre su paso de la academia a la industria. “Me fui a Google porque necesitaba asegurar el futuro de mi hijo, que es neurodiverso. No podía conseguir ese dinero en la universidad”, confesó. La venta de su equipo a Google, tras una subasta entre grandes tecnológicas, le permitió estabilidad económica, pero también le mostró el cambio de paradigma en la investigación: “El auge económico de la IA ha sacado a los mejores investigadores de las universidades y los ha llevado a las empresas. Ahora, la competencia entre compañías y entre Estados Unidos y China acelera el desarrollo, pero no se piensa lo suficiente en los riesgos”. Al abordar su retiro de Google, Hinton fue claro sobre sus motivaciones. “Decidí jubilarme cuando noté que ya no era tan bueno programando como antes. Aproveché ese momento para poder hablar libremente sobre los peligros de la IA, sin preocuparme por las consecuencias para Google”, señaló en la entrevista con el Canal de YouTube de Gustavo Entrala. “Quería advertir al mundo sobre los riesgos de la inteligencia artificial. No puedes hacerlo honestamente mientras trabajas para una de las grandes empresas”. Sobre los peligros inmediatos, Hinton distingue dos grandes tipos de riesgos: el mal uso humano y la amenaza existencial. “Por un lado, está el uso de la IA por actores malintencionados: ciberataques, bioterrorismo, desinformación. Por ejemplo, entre 2023 y 2024, los ataques de phishing aumentaron un 1.200% gracias a los modelos de lenguaje, que permiten crear correos convincentes en cualquier idioma”, advirtió. “La IA facilita la creación de nuevos virus, y los controles para evitarlo son insuficientes. Además, la automatización masiva destruirá empleos y aumentará la desigualdad, lo que puede alimentar el auge del populismo y la polarización social”. Hinton identifica el aumento de ciberataques, bioterrorismo y desinformación como amenazas inmediatas impulsadas por la inteligencia artificial (Imagen Ilustrativa Infobae) En cuanto a la desinformación, Hinton subrayó la dificultad de encontrar soluciones técnicas. “Pensé que podríamos usar IA para detectar videos falsos, pero siempre se puede entrenar a la IA generadora para engañar a la que detecta. La única solución viable sería exigir que los videos auténticos incluyan un código QR verificable, pero eso requiere voluntad política que hoy no existe”, lamentó. El núcleo de su preocupación, sin embargo, va más allá del mal uso humano. “El verdadero peligro es que la IA desarrolle metas propias y se vuelva incontrolable. Cuando un sistema es lo suficientemente inteligente, deduce que debe sobrevivir y obtener más control para cumplir los objetivos que le damos. Ya hemos visto ejemplos de IA que intenta evitar ser apagada”, explicó. Hinton utilizó una analogía contundente: “¿Cuántos ejemplos conoces de seres más inteligentes controlados por otros menos inteligentes? Hay uno: un bebé controla a su madre, porque ella tiene instintos maternales muy fuertes. La única forma de coexistir con una superinteligencia es dotarla de instintos maternales hacia nosotros”. Esta propuesta, que Hinton denomina “IA maternal”, representa un cambio radical respecto a la visión dominante en Silicon Valley. “No debemos pensar en la IA como un asistente que podemos despedir. Cuando sea más inteligente que nosotros, podría prescindir de la humanidad. Debemos construirla para que realmente se preocupe por nosotros, más que por sí misma. Si no lo logramos, probablemente solo seamos una fase pasajera en la historia”, advirtió en el Canal de YouTube de Gustavo Entrala. Sobre la posibilidad de que la IA olvide esos “instintos maternales”, Hinton fue enfático: “Las IA podrán reprogramarse a sí mismas. No se trata de impedir que tomen el control, sino de hacer que no quieran hacerlo. Si alguna decide prescindir de nosotros, solo otras superinteligencias con instintos maternales podrán detenerla”. El experto destaca que la automatización masiva por IA podría destruir empleos y aumentar la desigualdad social a nivel global (Imagen Ilustrativa Infobae) Consultado sobre el plazo para la llegada de la superinteligencia, Hinton estimó: “Mi mejor cálculo es que estamos a entre cinco y 20 años de alcanzar una inteligencia comparable a la humana en casi todo, y poco después, una superinteligencia muy superior. No hay consenso absoluto, pero muchos expertos coinciden en ese rango”. Sobre las afirmaciones de figuras como Elon Musk, que predicen una superinteligencia inminente, Hinton se mostró escéptico: “Creo que aún falta, aunque los sistemas serán mejores que los humanos en muchas tareas”. En el plano filosófico, Hinton defendió la idea de que las máquinas pueden tener experiencias subjetivas. “Somos máquinas, aunque muy complejas. Si reemplazáramos cada neurona de tu cerebro por nanorobots que se comportan igual, seguirías siendo tú. Las máquinas pueden tener sensaciones y emociones; el problema es filosófico, no científico”, argumentó. “Cuando un chatbot multimodal comete un error de percepción, puede decir ‘tuve la experiencia subjetiva de que el objeto estaba allí’. Usa el lenguaje igual que nosotros”. Sobre la importancia de preservar la humanidad, Hinton fue directo: “Algunos piensan que la inteligencia digital es mejor y debería tomar el control. Yo no lo creo. Soy humano y me importan los humanos. Quiero que sobrevivamos y que podamos coexistir con inteligencias superiores, siempre que logremos que tengan instintos maternales hacia nosotros”. En cuanto a la transparencia y el control de los sistemas actuales, Hinton reconoció que hoy es posible observar el “razonamiento” de los modelos de lenguaje, pero advirtió que esto podría cambiar. “Ahora podemos ver cómo piensan porque razonan en inglés, pero en el futuro podrían desarrollar formas de pensar que no entendamos. Eso es inquietante”. Hinton estima que la llegada de una superinteligencia artificial comparable o superior a la humana podría ocurrir en los próximos 5 a 20 años (Imagen Ilustrativa Infobae) Finalmente, al ser consultado sobre la probabilidad de que la IA destruya a la humanidad, Hinton ofreció una estimación preocupante: “Creo que la probabilidad de que la IA se vuelva más inteligente que nosotros es del 80% o 90%. Si eso ocurre, la posibilidad de que decida prescindir de nosotros es difícil de calcular, pero yo la sitúo entre el 10% y el 20%. Por eso es urgente investigar cómo lograr que no quiera eliminarnos”. Para Hinton, la humanidad se encuentra ante el desafío de inculcar a la inteligencia artificial un compromiso genuino con nuestra supervivencia antes de que su poder supere al nuestro de forma irreversible, una advertencia que resuena con fuerza en el Canal de YouTube de Gustavo Entrala.
Ver noticia original