15/01/2025 07:53
15/01/2025 07:53
15/01/2025 07:53
15/01/2025 07:53
15/01/2025 07:53
15/01/2025 07:53
15/01/2025 07:51
15/01/2025 07:51
15/01/2025 07:51
15/01/2025 07:51
» Radiosudamericana
Fecha: 15/01/2025 03:56
Martes 14 de Enero de 2025 - Actualizada a las: 18:23hs. del 14-01-2025 COLUMNA DE OPINIÓN Recibí este ejemplar que adquirí por Mercado Libre, a raíz de la visibilización de la nueva derecha extrema que describí anteriormente al comentar en varias notas sobre los libros "tecno millonarios" (tecnologías sofisticadas, IA, satélites), también los libros de Giuliano Da Empoli " los ingenieros del caos", el "mago del Kremlin" y el del Griego Yanis Varoufakis "tecnofeudalismo". Algunos analistas opinan que Santiago Caputo usó en Argentina estas nuevas prácticas y tecnologías que orientan la opinión pública hacia un sector determinado. En las mencionadas obras, de la primera se vio como se orientó a la sociedad Inglesa para construir el triunfo del “Brexit" en su momento y en el segundo libro como un grupo reducido tiene la alta tecnología, IA, neuro tecnología y redes sociales con algoritmos a disposición. Este fenómeno tecnológico se dirige directo al cerebro y afecta el libre albredio, es decir la toma de decisiones, vemos que la ciencia nueva que estamos hablando se asoció con la política (caso Trump - Elon Musk). Esto nos obliga como sociedad entender este nuevo paradigma, saber que existen, cuáles son las contraindicaciones de su uso o desconocimiento, sus beneficios y cómo se atenúan sus efectos. En EEUU y sociedades avanzadas están estudiando la Neurociencia y su implicancia en la justicia y el derecho y se llama “neuroderecho", una rama que vino para quedarse y hacer docencia científica, a través de la investigación, el asesoramiento a organismos, empresas, gobiernos y organizaciones públicas, para evitar caer en la manipulación de la mente. Rafael Yuste, un neurobiólogo español, profesor de ciencias biológicas en la Universidad de Columbia, Nueva York, plantea en un artículo de la prestigiosa revista Nature, que deberían incluirse los "neuroderechos" en la Declaración Universal de los Derechos Humanos. La Universidad de Columbia y los derechos humanos. 1) Derecho a la preservación de la identidad personal. Las neurotecnologías pueden alterar la identidad personal y la naturaleza del yo, como ocurre con algunas personas que han recibido estimulación cerebral profunda mediante electrodos implantados en su cerebro y reportan sentir una alteración en su sentido del yo. Las formulaciones de consentimiento informado en caso de intervenciones quirúrgicas en el cerebro también deben alertar sobre el riesgo de posibles alteraciones en la personalidad de los pacientes. 2) Derecho a la no interferencia en la libertad de decisión. Se debe garantizar que las personas no sean manipuladas por las neurotecnologías y evitar el riesgo de que al verse alterada la actividad neuronal al estar conectadas a tecnología de este tipo, puedan sentirse invadidas por terceros al tomar decisiones. 3) Derecho a la privacidad de datos neuronales. Se debe garantizar que los datos neuronales solo sean compartidos con consentimiento expreso de los sujetos de quienes se han obtenido. Esta protección se vuelve especialmente relevante para evitar posibles abusos de empresas comerciales que puedan estar interesadas en el uso de dichos datos. 4) Derecho a la equidad en el mejoramiento de la capacidad cerebral. Distintos avances científicos y tecnológicos en el ámbito de las neurociencias han dado lugar a lo que en el ámbito anglosajón se conoce como cognitive enhancement o neuroenhancement, cuyo objetivo es la mejora de las habilidades cognitivas de personas sanas, lo que puede dar lugar a situaciones de inequidad si únicamente quienes cuentan con los recursos económicos suficientes para someterse a este tipo de técnicas pueden beneficiarse de ellas. Es necesario que se busquen mecanismos para evitar el surgimiento de un elitismo cognitivo basado en diferencias sociales. 5) Derecho a la protección frente a los sesgos de los algoritmos. En la evolución de la inteligencia artificial se pueden distinguir dos grandes períodos: el primero correspondiente a la inteligencia artificial simbólica o como se conoce en el ámbito anglosajón Good Old-Fashioned Artificial Intelligence, por una parte, y la nueva inteligencia artificial, por la otra. La primera, también conocida como "inteligencia artificial simbólica", se caracteriza por un conjunto de métodos basados en la representación del conocimiento humano de alto nivel. Algunos de dichos métodos son la formalización lógica, la elaboración de algoritmos para la solución de problemas, las redes semánticas, escenarios, etcétera. Una de sus ventajas es que a los humanos les permite tener acceso, comprensión y control sobre las operaciones realizadas por la computadora. Por ejemplo, en un sistema experto basado en reglas de producción usando lógica proposicional es posible seguir el proceso inferencial realizado por el sistema. Por otra parte, la nueva inteligencia artificial, también conocida como inteligencia artificial subsimbólica, se caracteriza por el desarrollo de modelos matemáticos y métodos tales como las redes neuronales, algoritmos genéticos, probabilidad bayesiana, machine learning, deep learning, minería de datos, etcétera, para procesar enormes volúmenes de información imposibles de procesar por los seres humanos. Este es el tipo de inteligencia artificial que ha invadido la vida cotidiana a través de nuevas tecnologías, como los sistemas de recomendaciones. A diferencia de lo que ocurría con la inteligencia artificial tradicional, las computadoras no se basan en representaciones del conocimiento humano, sino que ejecutan procesos sumamente eficientes, sin que los humanos podamos seguir exactamente lo que está haciendo el sistema. Es importante destacar que a pesar de su sofisticación y altísima probabilidad de certeza en las respuestas, estos sistemas, al igual que ocurre con la cognición humana, pueden cometer errores e incluso actuar de manera sesgada. Tal es el caso del sistema de clasificación Google Photos que cometió el error de clasificar a una pareja de personas negras como gorilas e hizo que la empresa pidiera disculpas. En este sentido, es importante desarrollar mecanismos que prevengan e impidan sesgos en el tratamiento de datos neurológicos por parte de sistemas de inteligencia artificial. Esto es un desafío y requiere una respuesta, más aún cuando los dueños cuasi monopolizan esta tecnología y no se hacen responsables de los daños que pueden causar. Mark Zuckerberg, recientemente anunció que abandona el uso de verificadores de datos en dos de sus redes sociales, a lo que la República Federativa de Brasil amenazó con medidas judiciales y exigió que la empresa proteja los “derechos fundamentales” de los ciudadanos. Metafóricamente decimos que "San Jorge tiene que ganarle al dragón", realizamos esta visibilizacion para que la sociedad pueda comenzar a comprender e interiorizarse del gran impacto y alcance del uso de las tecnologías digitales en los derechos humanos en general y en la libertad de expresión en particular, debemos examinar detenidamente las formas en que estas tecnologías se están utilizando, cómo va estructurando nuestra vida y, en la medida de lo posible, a quién o quiénes beneficia su uso.
Ver noticia original