07/02/2025 09:01
07/02/2025 09:01
07/02/2025 08:56
07/02/2025 08:55
07/02/2025 08:54
07/02/2025 08:53
07/02/2025 08:51
07/02/2025 08:51
07/02/2025 08:50
07/02/2025 08:48
» Diario Cordoba
Fecha: 07/02/2025 06:22
Desde los primeros años del cine, los robots inteligentes han cautivado nuestra imaginación. En Metrópolis (1927), el icónico robot María nos mostró un futuro donde las máquinas podrían imitar a los humanos. Décadas más tarde, HAL 9000 en 2001: Odisea del Espacio (1968) nos hizo temer una inteligencia artificial capaz de tomar decisiones propias e incluso contrarias a nuestros intereses. Pero la IA no se quedó en la ficción. Años después, asistentes virtuales como Siri (2011), Alexa (2014) y Google Assistant (2016) trajeron la inteligencia artificial a nuestros bolsillos y hogares, y transformaron nuestra relación con la tecnología. La reciente aparición de modelos de lenguaje o sistemas de inteligencia artificial generativa, como ChatGPT, Copilot, Gemini, Claude, o la reciente DeepSeek están provocando una verdadera revolución en todos los órdenes de nuestra vida, y va a cambiar para siempre nuestra forma de trabajar, además de transformar la tecnología, la ciencia y todas las artes. Lo que comenzó como una fantasía en la gran pantalla hoy es parte de nuestra vida diaria. Y aunque la IA aún no ha alcanzado la conciencia de HAL 9000, su evolución sigue sorprendiendo, desdibujando la línea entre la ficción y la realidad. Este desarrollo desbocado de la inteligencia artificial está despertando dudas crecientes en torno a sus peligros potenciales. Y ya se mira con inquietud y temor ese evento de la singularidad de la que emerja una inteligencia que supere con creces las capacidades de la humanidad. Pero siendo la singularidad algo preocupante y posible, se nos olvida que hay otros peligros más cercanos, tanto que de hecho ya son reales, aunque pasen desapercibidos. Un estudio, desarrollado por la Universidad de East Anglia y dos instituciones brasileñas, ha revelado que los sistemas de inteligencia artificial generativa, como ChatGPT, presentan sesgos ideológicos que podrían comprometer la confianza pública y la estabilidad democrática. La investigación concluye que este modelo de IA tiende a favorecer valores políticos de izquierda en la generación de texto e imágenes, mientras que relega o rechaza perspectivas conservadoras. Este hallazgo es preocupante en un contexto global donde la proliferación de noticias falsas pone en riesgo la integridad electoral, según destaca un informe de la Universidad de Ottawa. Los resultados muestran que el modelo evita desarrollar discursos conservadores, mientras que produce sin inconvenientes contenido afín a posturas progresistas. Este desequilibrio plantea interrogantes sobre la imparcialidad y la responsabilidad en el diseño de estas tecnologías. La investigación subraya el peligro de que los sesgos de la IA refuercen la polarización social, erosionando la confianza en las instituciones y afectando el debate público. Los investigadores enfatizan la necesidad de una colaboración interdisciplinar entre legisladores, desarrolladores de tecnología y académicos para diseñar modelos de IA justos y respetuosos con los valores democráticos. Por cierto, de hacerse ese estudio ahora con la nueva IA china, DeepSeek, los resultados serían más obvios aún. La estuve probando y descubrí rápidamente que está totalmente alineada con los intereses chinos. Y seguramente directamente controlada por el gobierno chino. Se negó a hablarme con objetividad de Taiwán, el Tíbet, la minoría Uigur, o los sucesos de la plaza de Tiananmen, alegando que esos temas están fuera de su alcance. La inteligencia artificial está redefiniendo la manera en que accedemos y procesamos la información. Asegurar su equidad y responsabilidad es una tarea urgente para preservar la confianza en las instituciones y fortalecer el debate público en una sociedad que quiere ser democrática. *Profesor de la UCO
Ver noticia original