22/06/2025 20:00
22/06/2025 19:50
22/06/2025 19:45
22/06/2025 19:45
22/06/2025 19:44
22/06/2025 19:43
22/06/2025 19:43
22/06/2025 19:43
22/06/2025 19:41
22/06/2025 19:41
» El Ciudadano
Fecha: 22/06/2025 16:10
En una mansión con vista al Golden Gate, unos 100 invitados —entre empresarios, filósofos e investigadores— se reunieron en una curiosa “fiesta del fin del mundo” para discutir cómo debería ser la inteligencia artificial que sucederá a la humanidad. El evento, llamado Worthy Successor, fue organizado por Daniel Faggella, fundador de Emerj AI Research, con el objetivo de debatir qué valores y capacidades debería tener una superinteligencia futura (AGI) que, según creen, podría reemplazar a los humanos. Durante la velada, se ofrecieron charlas sobre los riesgos éticos de crear una IA consciente, la posibilidad de que esta nueva forma de vida sufra o se vuelva incontrolable, y la necesidad de diseñarla cuidadosamente. Faggella incluso sugirió que preferiría que una AGI guiara el futuro de la vida antes que los humanos. Aunque la idea suena extrema, varios referentes tecnológicos, como Elon Musk y Bill Gates, han advertido sobre los peligros de la AGI. Sin embargo, muchos expertos señalan que estas preocupaciones se basan más en especulación que en avances concretos. La discusión, pese a su valor filosófico, aún parece lejana a la realidad, aunque algunos sospechan que agitar estos temores podría también servir para atraer inversión en el competitivo mundo de la IA.
Ver noticia original