Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Las 4 decisiones invisibles que determinarán si la inteligencia artificial será aliada o amenaza para la sociedad

    Buenos Aires » Infobae

    Fecha: 15/07/2025 10:33

    Las elecciones estratégicas de la industria tecnológica influyen en el rumbo de la inteligencia artificial y su impacto social (Imagen Ilustrativa Infobae) El rumbo actual del desarrollo de la inteligencia artificial no es el resultado de un avance inevitable ni de una lógica neutral, sino de elecciones deliberadas tomadas por un reducido grupo de empresas y ejecutivos, principalmente en Silicon Valley. Frente a la narrativa dominante que presenta la llegada de la inteligencia artificial general (AGI, por sus siglas en inglés) como un destino ineludible, existen alternativas viables y socialmente beneficiosas para orientar la IA hacia la ampliación de las capacidades humanas y el bienestar colectivo, según advierte Daron Acemoglu, economista y profesor del Instituto Tecnológico de Massachusetts (MIT), en un análisis publicado por Prospect. “Lo que la IA hará a la sociedad, al trabajo, a la desinformación, a la democracia y a las tensiones geopolíticas está entrelazado con las elecciones que hagamos sobre cómo desarrollar esta tecnología prometedora pero aún incipiente”, señala el economista en Prospect. La narrativa sobre la inteligencia artificial general divide a expertos e industria sobre los beneficios y los riesgos sociales (Imagen Ilustrativa Infobae) Las 4 grandes decisiones que marcan el rumbo de la IA De acuerdo con el análisis de Acemoglu en Prospect, el desarrollo de la IA se encuentra en una encrucijada definida por cuatro grandes decisiones interrelacionadas. El rol de la cooperación internacional se plantea clave para enfrentar los desafíos globales de la inteligencia artificial (Imagen Ilustrativa Infobae) 1. AGI vs. sistemas complementarios La primera decisión, como explica Acemoglu en Prospect, es determinar si el objetivo principal de la industria será la AGI (inteligencia artificial general), es decir, una IA tan capaz como los humanos en todos los ámbitos, o si se debe priorizar el diseño de sistemas que actúen como herramientas complementarias para las personas. 2. Automatización o creación de oportunidades La segunda disyuntiva plantea si la IA debe centrarse en la automatización pura de tareas humanas, lo que podría desplazar empleos, o si debe orientarse a crear nuevas capacidades y oportunidades para los trabajadores. Esto tendría consecuencias relevantes para el mercado laboral y los modelos de negocio. 3. Modelos generales frente a modelos específicos El tercer dilema estratégico es la elección entre desarrollar grandes modelos generales —como los modelos fundacionales del tipo GPT— que cubran múltiples dominios, o bien favorecer modelos específicos y especializados en tareas concretas. 4. Competencia internacional o cooperación global Finalmente, la cuarta decisión gira en torno a si el avance de la IA debe estar marcado por la competencia internacional, especialmente entre Estados Unidos y China, o si puede impulsarse desde una lógica de cooperación global y marcos regulatorios comunes. Según Acemoglu, estas decisiones no son técnicas ni inevitables, sino que reflejan los intereses y prioridades de un pequeño grupo de empresas tecnológicas y sus líderes, quienes buscan maximizar sus beneficios y su poder sobre el resto de la sociedad. Antecedentes históricos: de la visión de Licklider a la promesa de la AGI El debate entre automatización y modelos pro-humanos marca la evolución reciente de la inteligencia artificial (Imagen Ilustrativa Infobae) El debate sobre el propósito y el potencial de la inteligencia artificial no es nuevo. Acemoglu recuerda que, hace más de seis décadas, el científico JCR Licklider —considerado uno de los padres fundadores de Internet— imaginó una relación simbiótica entre humanos y máquinas. En 1960, Licklider escribió: “La esperanza es que, en no demasiados años, los cerebros humanos y las máquinas de computación estarán acoplados muy estrechamente, y que la asociación resultante pensará como ningún cerebro humano ha pensado jamás y procesará datos de una manera que no se ha alcanzado con las máquinas de manejo de información que conocemos hoy”. Esta visión, centrada en la colaboración y la ampliación de las capacidades humanas, inspiró innovaciones como el ratón de computadora, los menús interactivos, los hipervínculos y, finalmente, la propia Internet. Sin embargo, desde los inicios de la informática, también ha existido la aspiración de crear máquinas con inteligencia general. Alan Turing, en 1949, ya reflexionaba sobre la posibilidad de que las computadoras alcanzaran capacidades humanas. Marvin Minsky, otro pionero de la IA, declaró en 1970 a la revista Time: “En tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio. Me refiero a una máquina que podrá leer a Shakespeare, engrasar un coche, jugar a la política de oficina, contar un chiste, pelearse. En ese momento, la máquina comenzará a educarse a sí misma a una velocidad fantástica. En unos meses estará a nivel de genio y, poco después, sus poderes serán incalculables”. Aunque la AGI sigue siendo un objetivo debatido y su viabilidad técnica no está asegurada, la aparición de la IA generativa ha reavivado estas expectativas y ha dado mayor realismo a los sueños de una inteligencia artificial capaz de igualar o superar a los humanos. Críticas a la automatización y la AGI: riesgos sociales y democráticos Acemoglu sostiene en Prospect que la obsesión por la AGI y la automatización masiva conlleva riesgos significativos. Uno de los principales peligros es el desplazamiento de los humanos en la toma de decisiones y la centralización del poder en manos de quienes controlan las máquinas. La recolección masiva de datos sin compensación genera debates sobre el futuro del mercado de datos y la privacidad (Imagen Ilustrativa Infobae) “La idea de que las máquinas son mejores que los humanos para tomar decisiones, junto con la centralización de la información que implican los enfoques actuales, es inherentemente antidemocrática”, advierte el economista. Según su análisis, aceptar que las máquinas —o sus diseñadores— son superiores a las personas comunes facilita la evolución de las redes sociales hacia la desinformación y la manipulación. En el ámbito laboral, la automatización ha incrementado la productividad y los beneficios empresariales en cierta medida, pero también ha contribuido al aumento de la desigualdad y a la caída de los salarios reales para una parte importante de la fuerza laboral en Estados Unidos. Acemoglu subraya que, en los periodos en los que las nuevas tecnologías se han utilizado para crear nuevas tareas y capacidades para los trabajadores, el crecimiento de la productividad ha ido acompañado de aumentos salariales más generalizados. Por el contrario, un enfoque excesivo en la automatización no favorece la prosperidad compartida. El autor también advierte que la presión por adoptar la IA puede llevar a empresas a implementar tecnologías sin una comprensión clara de cómo pueden mejorar la productividad o de cómo deben reorganizarse para integrar la colaboración entre humanos y máquinas. Alternativas: IA pro-humana, modelos específicos y cooperación internacional Frente a la trayectoria dominante, Acemoglu propone alternativas concretas para orientar la IA hacia el beneficio social. En primer lugar, aboga por una IA que complemente y potencie las capacidades humanas, en línea con la visión de Licklider. Esto implica priorizar modelos específicos de IA, diseñados para tareas concretas y alimentados con datos de alta calidad provenientes de trabajadores experimentados, en lugar de perseguir modelos generales que intentan abarcarlo todo. El economista destaca que los modelos específicos han sido responsables de algunos de los mayores éxitos de la IA, como AlphaFold, que predice la estructura tridimensional de las proteínas. Además, señala que los modelos generales presentan dificultades para ofrecer experiencia profunda y tienden a generar respuestas erróneas o engañosas cuando se les exige abarcar múltiples dominios. En el plano internacional, Acemoglu sugiere que la cooperación y el intercambio de información entre países, especialmente entre Estados Unidos y China, pueden ser más efectivos para abordar desafíos globales como pandemias o el cáncer, en lugar de perpetuar una competencia de suma cero por el dominio de la IA. El estudio advierte sobre el peligro de una automatización que aumente la desigualdad y reduzca los salarios reales (Imagen Ilustrativa Infobae) Intereses económicos e ideología: las fuerzas detrás del rumbo actual Según el análisis publicado por Prospect, el predominio de la AGI, la automatización y los grandes modelos generales responde a dos factores principales: los intereses económicos de las grandes tecnológicas y una ideología elitista. Las empresas de Silicon Valley cuentan con la experiencia y los recursos para invertir y escalar nuevas tecnologías digitales, y han aprendido a monetizar la automatización y la publicidad digital. Sin embargo, la falta de modelos de negocio claros para tecnologías que complementen al ser humano dificulta su desarrollo y adopción. El sector tecnológico también se beneficia de la recolección masiva de datos personales sin compensación, lo que constituye una subvención implícita para sus actividades principales. Además, la relación conflictiva entre capital y trabajo en Estados Unidos refuerza la preferencia por la automatización, que reduce la dependencia de los trabajadores y presiona los salarios a la baja. En el plano ideológico, Acemoglu identifica una creencia arraigada en que las máquinas deben y pueden superar a los humanos, una idea que, en la práctica, se traduce en el deseo de que las máquinas —diseñadas y controladas por unos pocos— dominen al resto. “Oculta en las decisiones sobre IA que se están tomando ahora mismo hay una ideología elitista, esencialmente autoritaria, que convierte la tecnología en un vehículo para los sueños grandiosos de una pequeña élite”, afirma el economista. Medidas concretas para reorientar la IA Para contrarrestar la trayectoria actual, Acemoglu propone en Prospect una serie de medidas regulatorias y económicas. En primer lugar, sugiere la imposición de un impuesto a la publicidad digital, de modo que las plataformas tecnológicas paguen por los ingresos generados por anuncios digitales, pero no por otras fuentes como suscripciones o ventas de software. Esta medida busca desalentar el modelo de negocio basado en la recolección y monetización masiva de datos personales. En segundo lugar, el economista aboga por la creación de un mercado de datos bien regulado, donde las empresas paguen por el uso cotidiano de datos y los individuos tengan incentivos para generar datos de alta calidad, fundamentales para el desarrollo de una IA pro-humana y orientada al trabajador. En tercer lugar, Acemoglu plantea la necesidad de reformas fiscales que eliminen las distorsiones actuales, como la menor tributación de los ingresos de capital frente a los del trabajo, y que reduzcan el conflicto entre la dirección y los trabajadores, factores que actualmente incentivan la automatización excesiva. Por último, el autor subraya la responsabilidad ética de los desarrolladores de IA. “Los investigadores en IA deben reconocer que cada elección que hacen tiene consecuencias sociales y éticas. Quienes toman decisiones sobre la IA también tienen responsabilidades, sean ingenieros o empresarios”, sostiene Acemoglu en Prospect.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por