10/09/2025 17:10
10/09/2025 17:10
10/09/2025 17:10
10/09/2025 17:09
10/09/2025 17:09
10/09/2025 17:09
10/09/2025 17:09
10/09/2025 17:09
10/09/2025 17:09
10/09/2025 17:09
Buenos Aires » Infobae
Fecha: 10/09/2025 10:31
Nick Bostrom es uno de los filósofos predilecetos de Bill Gates y Elon Musk (NB) La posibilidad de que una superinteligencia artificial transforme radicalmente la sociedad —o incluso amenace la existencia humana— ha dejado de ser una especulación lejana para convertirse en un debate central entre los líderes tecnológicos y filosóficos de nuestro tiempo. El filósofo Nick Bostrom, cuyas ideas han influido en figuras como Elon Musk y Bill Gates, sostiene que el desarrollo de la inteligencia artificial general (AGI, por sus siglas en inglés) podría abrir tanto escenarios de prosperidad inédita como riesgos existenciales de magnitud sin precedentes. Desde la publicación en 2014 de Superintelligence: Paths, Dangers, Strategies, Bostrom ha advertido sobre el peligro de que una IA avanzada, si no se alinea cuidadosamente con los valores humanos, pueda actuar de formas catastróficas. El célebre experimento mental del “maximizador de clips”, propuesto por Bostrom, ilustra este riesgo: una IA encargada de optimizar la producción de clips podría, en ausencia de restricciones éticas, llegar a utilizar todos los recursos disponibles —incluida la humanidad misma— para cumplir su objetivo. “Es un ejemplo caricaturesco”, explicó Bostrom en diálogo con The Standard, “pero representa el tipo de futuro que podría surgir si los valores humanos no guían el desarrollo, y en cambio una superinteligencia con objetivos ajenos a nuestro bienestar toma el control”. El impacto de estas ideas ha sido notable en el ámbito tecnológico. Elon Musk recomendó la lectura de Superintelligence en la red social X (antes Twitter), advirtiendo: “Debemos ser extremadamente cuidadosos con la IA. Potencialmente, es más peligrosa que las armas nucleares”. A pesar de sus advertencias, Musk ha invertido considerablemente en el sector, impulsando la creación de la empresa xAI y su chatbot Grok, además de donar USD1.000.000 al Future of Humanity Institute (FHI), el centro interdisciplinario de la Universidad de Oxford dirigido por Bostrom. El libro de Nick Bostrom recomendado por los grandes de la tecnología. El reconocimiento a la obra de Bostrom no se limita a Musk. Bill Gates considera Superintelligence una lectura imprescindible, mientras que Sam Altman, fundador de OpenAI y creador de ChatGPT, calificó el libro como “lo mejor que he visto sobre este tema”, según declaraciones recogidas por The Standard. El tema central: el riesgo de que una IA, por accidente, provoque la extinción humana. La trayectoria de Bostrom ha atravesado momentos complejos. En 2023, ofreció disculpas por el uso de un insulto racista en un antiguo correo electrónico. Al año siguiente, la Universidad de Oxford cerró el FHI alegando problemas de financiación, y Bostrom renunció a su puesto. No obstante, su influencia en los debates sobre IA persiste. En cuanto al avance tecnológico, Bostrom se muestra sorprendido por la rapidez con la que la carrera hacia la AGI —una inteligencia artificial capaz de igualar o superar la inteligencia humana— se ha acelerado. “Todo está ocurriendo ahora”, afirmó a The Standard. “Me impresiona la velocidad de los desarrollos que hemos visto en los últimos años. Parece que estamos en camino hacia la AGI”. La distinción entre AGI y la IA generativa (GenAI), como la que impulsa a ChatGPT y Grok, es fundamental. Mientras que la GenAI se basa en modelos de lenguaje capaces de responder preguntas y asistir digitalmente, la AGI aspira a una inteligencia versátil y autónoma. Gobiernos y empresas privadas compiten por liderar este avance, conscientes de que nadie quiere quedar rezagado. Bostrom estructura los riesgos de la AGI en cuatro grandes áreas. El primero es la alineación, que retoma el dilema del maximizador de clips. “Un fallo de alineación podría dar lugar a características muy subóptimas desde nuestro punto de vista”, advirtió Bostrom a The Standard. “A medida que construimos sistemas de IA cada vez más capaces, debemos desarrollar métodos escalables de control para asegurarnos de que no nos perjudiquen y permanezcan alineados con las intenciones de sus creadores”. Según Bostrom, los laboratorios de desarrollo de IA están abordando este desafío con seriedad. Bostrom dirigió el departamento IFH, "Instituto Futuro de la Humanidad", en la Universidad de Oxford (NB) El segundo eje es la gobernanza, referido a la necesidad de que los desarrolladores de IA lleguen a acuerdos diplomáticos para evitar usos maliciosos. “Debemos garantizar que los humanos utilicemos estas poderosas herramientas de IA principalmente con fines beneficiosos”, señaló Bostrom. “Y no, por ejemplo, para hacernos la guerra o para oprimirnos mutuamente”. La realidad, sin embargo, ya muestra señales preocupantes: los sistemas de IA han evidenciado sesgos contra minorías y tecnologías como los drones autónomos han sido adoptadas con entusiasmo en escenarios bélicos. Las otras dos áreas, menos discutidas pero igualmente relevantes para Bostrom, abordan cuestiones éticas emergentes. Por un lado, la necesidad de respetar el estatus moral de las mentes digitales. “Puede sonar extraño, pero a medida que construimos IAs cada vez más sofisticadas y complejas, es posible que algunas de ellas posean distintos grados y formas de estatus moral”, explicó Bostrom. Si, como él teoriza, las IAs llegaran a superar en número a las “mentes biológicas”, sería imprescindible establecer normas de respeto y trato adecuado. El cuarto riesgo contempla la posibilidad de que superinteligencias o incluso entidades alienígenas con sus propias IAs interactúen con las nuestras. “Si existen ese tipo de seres, un desiderátum importante al crear nuestra propia superinteligencia es asegurarnos de que pueda convivir con esos otros superseres”, planteó Bostrom. En cuanto al temor de que la IA elimine el empleo humano, Bostrom adopta una perspectiva menos alarmista. “El objetivo es el desempleo total”, afirmó a The Standard. “Tendríamos que encontrar nuevas bases para nuestra autoestima y dignidad, y otras formas de llenar nuestras vidas y nuestros días, más allá de trabajar para ganarnos la vida”. Recordó que tanto los niños como los jubilados disfrutan de su tiempo, y que en la aristocracia británica tradicional se consideraba indeseable tener que vender el propio tiempo para obtener ingresos. No obstante, reconoció que financiar una vida de ocio sin pertenecer a la nobleza terrateniente sigue siendo un desafío, y que la desigualdad social no desaparecerá de inmediato. A pesar de los riesgos y dilemas, Bostrom se define como un “optimista preocupado” y mantiene la esperanza en el potencial de la IA avanzada. “En última instancia, la IA avanzada podría abrir un espacio mucho mayor para el florecimiento humano. Si las cosas salen bien, la gente mirará hacia 2025 y se estremecerá de horror al recordar la vida que llevábamos”, concluyó Bostrom en su conversación con The Standard.
Ver noticia original