13/09/2025 18:22
13/09/2025 18:21
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
13/09/2025 18:15
Buenos Aires » Infobae
Fecha: 13/09/2025 16:31
Sam Altman defiende transparencia y límites morales en ChatGPT ante Tucker Carlson La reciente entrevista a Sam Altman, director ejecutivo de OpenAI, en The Tucker Carlson Show ha reavivado el debate sobre el impacto social, ético y humano de la inteligencia artificial. Durante la conversación, Altman abordó cuestiones que van desde la moralidad de los sistemas de IA hasta la polémica muerte de Suchir Balaji, exinvestigador de la compañía, así como temas de privacidad, el futuro del empleo y su relación con Elon Musk. Las declaraciones del directivo, recogidas por el programa, ofrecen una visión directa sobre los dilemas y desafíos que enfrenta la tecnología que está transformando el mundo. A lo largo de la entrevista, Altman respondió a preguntas sobre la naturaleza de la inteligencia artificial, su capacidad para tomar decisiones y el marco moral que guía a modelos como ChatGPT. El directivo explicó que, aunque estos sistemas pueden parecer inteligentes o incluso “vivos” para algunos usuarios, en realidad carecen de agencia o autonomía propia. “No hacen nada a menos que se les pida”, afirmó el CEO de OpenAI en The Tucker Carlson Show, subrayando que la percepción de vida es una ilusión que se desvanece con el uso continuado. El programa abordó de manera central la cuestión de la ética en la inteligencia artificial. Altman detalló que el proceso de entrenamiento de los modelos de OpenAI incluye la consulta a cientos de filósofos morales y expertos en ética, con el objetivo de reflejar la diversidad de perspectivas humanas. “Al final tuvimos que tomar algunas decisiones”, reconoció, señalando que la compañía busca equilibrar la libertad del usuario con los intereses de la sociedad, especialmente en temas delicados como la creación de armas biológicas o la asistencia en situaciones de riesgo. Controversia por la muerte de Suchir Balaji Suchir Balaji posa para una foto en Hawái en 2018. Balaji era ingeniero y expresó inquietudes sobre OpenAI. Murió en noviembre de 2024. (Balaji Ramamurthy vía AP) Uno de los momentos más tensos de la entrevista se produjo cuando Tucker Carlson planteó la muerte de Suchir Balaji, exinvestigador de OpenAI, ocurrida en noviembre de 2024 en San Francisco. Aunque la policía local clasificó el caso como suicidio, la familia de Balaji y el propio presentador sostienen que existen indicios de homicidio. Carlson llegó a mencionar que la madre del fallecido lo acusa de haber sido asesinado “por orden” de Altman. Ante estas afirmaciones, el directivo expresó su desconcierto y tristeza por tener que defenderse de tales acusaciones, reiterando que, tras revisar los informes policiales y médicos, considera que se trató de un suicidio. “Fue como un amigo para mí... Me parece un suicidio”, declaró Altman en el programa, añadiendo que ofreció hablar con la familia, pero su propuesta no fue aceptada. Altman: No he hablado con las autoridades al respecto. Carlson: «Eh, y su madre afirma que fue asesinado por orden suya». Altman: «¿Y usted cree eso?». Carlson: «Yo... bueno, se lo estoy preguntando». Altman: «Quiero decir... usted acaba de decirlo, así que, ¿lo cree?». Carlson: «Creo que vale la pena investigarlo. Y yo no... Quiero decir, si un tipo sale y acusa a su empresa de cometer delitos, no tengo ni idea de si es cierto o no, por supuesto. Y luego lo encuentran muerto, y hay signos de lucha. Yo... no creo que valga la pena descartarlo... No creo que debamos decir, bueno, se suicidó, cuando no hay pruebas de que el tipo estuviera deprimido en absoluto. Creo que... y si fuera tu amigo, creo que querría hablar con su madre o... Altman: «Se lo ofrecí, pero ella no quiso». Carlson: «Entonces, ¿crees que, cuando la gente ve eso y piensa que es posible que haya sucedido, crees que eso refleja la preocupación que tienen por lo que está pasando aquí? Como si la gente tuviera miedo de que esto sea como...». Altman: «No he hecho demasiadas entrevistas en las que me hayan acusado de, como...». Carlson: «Oh, no te estoy acusando en absoluto. Solo digo que su madre dice eso». El intercambio sobre la muerte de Balaji reflejó la tensión entre la percepción pública y las conclusiones oficiales. Carlson insistió en que había señales de lucha y circunstancias sospechosas, mientras que el ejecutivo defendió la investigación realizada por las autoridades de San Francisco. El directivo lamentó el dolor de la familia y subrayó la importancia de tratar el caso con respeto y sensibilidad, evitando especulaciones no fundamentadas. Privacidad, empleo y desafíos de la inteligencia artificial El debate sobre el rol de la IA en decisiones sensibles como el suicidio y la privacidad (Tucker Carlson) En el terreno de la privacidad y el uso de datos, Altman manifestó su preocupación por la protección de la información de los usuarios. Propuso la creación de un “privilegio de IA” similar al secreto profesional de médicos o abogados, que impediría a las autoridades acceder a las conversaciones mantenidas con sistemas de inteligencia artificial sin una orden judicial. “Creo que deberíamos tener el mismo concepto para la IA que con los médicos o abogados”, afirmó a Carlson, indicando que la compañía aboga por una regulación que garantice la confidencialidad de los datos personales. Respecto al impacto de la inteligencia artificial en el empleo, Altman reconoció que ciertos sectores, como el soporte al cliente, experimentarán una reducción significativa de puestos de trabajo debido a la automatización. Sin embargo, consideró que otras profesiones, como la enfermería, seguirán requiriendo una conexión humana insustituible. El directivo estimó que, históricamente, alrededor del 50% de los empleos cambian de forma significativa cada 75 años, y anticipó que la actual revolución tecnológica podría acelerar este proceso, aunque no necesariamente aumentará el desempleo total a largo plazo. “Habrá nuevas categorías de trabajo que hoy no podemos imaginar”, señaló. La relación con Elon Musk, cofundador de OpenAI y ahora competidor, también fue objeto de análisis. Altman describió a Musk como una figura a la que admiró en el pasado, pero con la que mantiene diferencias tras la salida del empresario de la compañía. Según Altman, Musk consideró que OpenAI no tendría éxito y decidió emprender su propio proyecto en el sector, lo que ha derivado en una competencia directa y en acciones legales. Sobre los riesgos futuros de la inteligencia artificial, Altman advirtió de los peligros asociados a la concentración de poder, la manipulación y los efectos sociales imprevistos. Mencionó el caso de los modelos de lenguaje que, al ser utilizados por millones de personas, pueden influir en los patrones de comunicación y comportamiento a gran escala. El directivo insistió en la necesidad de transparencia en el marco moral de la tecnología y en la importancia de adaptar las regulaciones a los desafíos emergentes. A lo largo de la entrevista con Carlson, Altman dejó claro que la responsabilidad de liderar el desarrollo de la inteligencia artificial conlleva una carga personal considerable. El directivo admitió que la magnitud de las decisiones que debe tomar y su impacto potencial en la vida de millones de personas le generan una preocupación constante, hasta el punto de que, desde el lanzamiento de ChatGPT, no ha logrado descansar plenamente.
Ver noticia original