05/07/2025 13:03
05/07/2025 13:03
05/07/2025 13:03
05/07/2025 13:02
05/07/2025 13:01
05/07/2025 13:01
05/07/2025 13:00
05/07/2025 12:59
05/07/2025 12:59
05/07/2025 12:58
Buenos Aires » Infobae
Fecha: 05/07/2025 06:50
Inteligencia artificial (Imagen ilustrativa Infobae) Este artículo resume mi disertación en el seminario “Futuro Inteligente: IA, Aceleración de la Transformación Tecnológica y su Impacto en al Ámbito Laboral”, organizado por la diputada nacional Silvana Giudici y realizado en la Cámara de Diputados de la Nación, el pasado Jueves 3 de Julio. La IA se ha insertado en todos los sectores productivos, desde el diagnóstico médico hasta la agricultura de precisión, automatizando, optimizando y procesando big data, extrayendo patrones, prediciendo estadísticamente, y por ende redefiniendo configuraciones laborales, tareas y roles hasta ahora no realizados o ejecutados por humanos más limitada y costosamente. Pero estos beneficios también plantean profundas tensiones éticas, entre ellas, el desplazamiento humano como desocupación y precariedad, más la denominada irresponsabilidad algorítmica omitiendo la intervención humana en decisiones y con algoritmos que incluso son opacos, donde ni usuario ni destinatario saben cómo funciona ni su base de datos. Fishel Szlajen A diferencia de las anteriores revoluciones industriales, donde se transformaba el cómo se trabaja, ahora se redefine ontológicamente el trabajo. Porque en lugar de transformar las herramientas u organización laboral, se reemplazan funciones cognitivas, creativas y decisionales propias del ser humano, afectando la naturaleza del trabajo y su vínculo con la construcción de la identidad personal. Y ello es porque la IA asume tareas que antes eran consideradas exclusivamente humanas como diagnosticar, predecir, decidir, investigar o crear, produciendo una fractura entre el hacer y el ser, obligando a replantear el rol del humano en un mundo donde producir ya no requiere su participación esencial. En este sentido, la bibliografía especializada muestra que la IA afecta el trabajo humano en tres formas principales: Automatización y desplazamiento: el Oxford Martin Programme, más autores como Carl Frey y Michael Osbourne estiman que el 47% de los empleos en USA podrán ser automatizados por tecnologías como la IA. Los más vulnerables son los rutinarios, repetitivos o basados en reglas claras como cajeros, operarios de manufactura, transportistas de carga o de pasajeros. A esto se suma el informe del Banco Mundial (2019) que advierte que el 60% de los empleos en países en desarrollo están en riesgo. En Argentina, el BID (2021) estimó que más de 6 millones de empleos podrían verse afectados por la IA en la próxima década. Transformación de tareas y reconversión: La consultora McKinsey (2017) estimó que, si bien el 5% de las ocupaciones serán completamente algortimizadas/robotizadas, también lo serán al menos un tercio de las actividades que realiza más del 60% de empleos actuales. También surge el fenómeno denominado “uberización digital” con nuevos empleos derivados de la economía digital como repartidores, conductores o freelancers pero carentes de protección sindical. Esto exige ampliar la mirada ética no sólo al desempleo sino a la precariedad laboral emergente. Creación de nuevos empleos, pero calificados: La IA también genera nuevas demandas laborales en programación, mantenimiento de sistemas, ciberseguridad y diseño de algoritmos. Sin embargo, la creación de estos empleos exige calificaciones específicas que muchos trabajadores desplazados no poseen, lo que problematiza la reconversión laboral, acorde a Daron Acemoglu y Pascual Restrepo. Analizando este fenómeno bajo la justicia distributiva y la subsidiariedad, según John Rawls, una sociedad justa es aquella que maximiza las condiciones de los menos aventajados. Si la IA beneficia principalmente a los sectores más preparados, aumentando la desigualdad, su implementación debe acompañarse de políticas redistributivas que reduzcan la asimetría tecnológica entre quienes diseñan algoritmos y los reemplazados por ellos. Esto obliga a delinear políticas que ofrezcan alternativas viables equilibrando el progreso tecnológico con la subsidiariedad. Como demuestran Wendell Wallach y Colin Allen, no basta con evaluar la eficiencia técnica, sino también las externalidades negativas para la sociedad como el desempleo estructural. Y en este sentido, propongo aplicar las medidas establecidas en el Informe de Ética en IA de la UNESCO (2021), garantizando una transición en la empleabilidad protegida, transparente y con marcos de reparación, para así evitar los que Michael Sandel denomina “humillación moral del desempleo involuntario”, al despojar a las personas del sentido de utilidad y pertenencia. Para cumplir, entonces, con el equilibrio entre el progreso tecnológico y los criterios de justicia, subsidiariedad y dignidad, sugiero además las siguientes medidas y sus fundamentos. Bajo la teoría de la no delegación, los sistemas de IA no deben sustituir la deliberación y supervisión humana en la toma de decisiones, por no ser reductibles a ningún algoritmo. En todo ámbito donde los actos de juicio afectan vidas humanas, especialmente aquellos con implicancias morales o legales tanto en salud, educación, derecho o seguridad, las decisiones no pueden ser delegadas a algoritmos, por abdicar de la responsabilidad moral inherente al juicio humano. Así, la agencia humana debería reforzarse en la selección y contratación de personal, otorgamiento de créditos o seguros, evaluación de productividad afectando despidos o promociones, reorganización laboral, evaluaciones educativas, acciones en seguridad, resoluciones judiciales, diagnóstico y tratamiento médico o políticas públicas. Luego, la IA no debe eximir a profesionales, empresas o gobiernos de ejercer un juicio ético activo sobre sus destinatarios o trabajadores. En línea con ello, el principio de accountability advirtiendo sobre la irresponsabilidad computacional cuando permite que sistemas ejecuten decisiones sin que ningún ser humano asuma la rendición de cuentas, obliga a que la IA sea asistencial y no sustitutiva en la toma de decisiones; sumado a la trazabilidad y auditoria algorítmica para evitar sesgos. Ejemplo de ello es la ley aprobada por el Parlamento Europea “AI Act (2024)” clasificando las aplicaciones de IA en función de su riesgo y regulándolas en consecuencia. Así, empresas tecnológicas deben adoptar principios de ética algorítmica como los de Global Initiative on Ethics of Autonomous and Intelligent Systems (2019), incluyendo transparencia, explicabilidad, trazabilidad y responsabilidad social por los efectos laborales directos e indirectos. En este sentido, deben también implementarse mecanismos regulatorios para el derecho a la segunda opinión, prohibiendo el uso de IA para decisiones irreversibles sin revisión humana; e instrumentarse auditorias de algoritmos evitando sesgos estructurales en sus resultados y los consecuentes riesgos para el trabajador en su implementación para optimizar estructuras laborales. Como tercer conjunto de medidas, planteo la creación de un fondo de financiamiento de reconversión laboral, tal como lo sugirió Bill Gates con “robot tax” en 2017; o como Finlandia, invirtiendo en programas de reskilling masivos como “Elements of AI”, gratuito y de acceso abierto, minimizando el impacto negativo de la algoritmización/robotización: o como Alemania, cuyo programa KI-Campus impulsa contenidos de IA para formación profesional; o como España con el Plan Nacional de Competencias Digitales para formar trabajadores en sectores vulnerables. También la urgente educación tecnológica accesible e inclusiva desde niveles primarios, más formación ética transversal en las carreras de ciencia y tecnología como en Stanford y MIT, desde 2019. Y la reforma de leyes laborales debiendo adaptarse a la economía de plataformas y a las nuevas formas de trabajo híbrido IA-humano, como recomiendan los informes del International Labour Organization (2021). Conclusión, no toda algoritmización/robotización es éticamente válida, aun cuando sea técnicamente posible. La pregunta ya no es sólo ¿qué puede hacer la IA?, sino ¿qué deberíamos dejar que haga la IA? Porque maximizar la eficiencia sin considerar el juicio moral de la decisión humana, ni la dignidad del trabajador, ni la naturaleza del trabajo, ni su propósito y construcción de identidad, devendrá en una tecnocracia deshumanizante.
Ver noticia original