Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Tus datos versus la inteligencia artificial: cómo defender la privacidad en esta nueva era

    Buenos Aires » Infobae

    Fecha: 31/07/2025 06:46

    Cada vez que pulsamos “aceptar” sin pensar, cedemos parte de nuestra autonomía a una maquinaria implacable (Imagen ilustrativa Infobae) La poderosa capacidad de la inteligencia artificial (IA) para entendernos profundamente ya no es un concepto futurista. Es nuestro presente. Nos conoce más que nuestros amigos o familiares: anticipa deseos, intuye temores, revela secretos ocultos en nuestros clics y conversaciones. Herramientas como ChatGPT, Alexa o las plataformas publicitarias utilizan algoritmos que se nutren de nuestros datos personales para interpretar y predecir comportamientos, además de generar perfiles precisos que, usados irresponsablemente, pueden devastar vidas. ¿Qué saben exactamente estos sistemas? Nuestra ubicación precisa, nuestro rostro y voz, nuestras búsquedas más íntimas, preferencias políticas y religiosas, nuestra salud física y mental. Todo ello lo almacenan en gigantescos servidores sin fronteras, invisibles a nuestros ojos, controlados por entidades cuyo interés principal es económico, no humano. Los riesgos son inmensos: discriminación laboral, robo de identidad, manipulación emocional y pérdida absoluta de la libertad personal. Cientos de miles de personas que habían buscado ayuda psicológica online, por ejemplo, sufrieron una noticia devastadora, al enterarse de que BetterHelp, una de las aplicaciones de terapia más populares del mundo, había compartido sus datos privados con gigantes tecnológicos como Facebook, Snapchat y Pinterest. No se trataba solo de direcciones de correo electrónico o direcciones IP. También estaban involucradas respuestas íntimas a cuestionarios clínicos sobre ansiedad, depresión o pensamientos suicidas, datos que muchos creyeron estar confiando exclusivamente a su terapeuta virtual. Cada vez que pulsamos “aceptar” sin detenernos a pensar, cedemos parte de nuestra autonomía a una maquinaria imperceptible pero implacable. Sin notarlo, dejamos de ser individuos para convertirnos en patrones predecibles, datos silenciosos negociados en mercados invisibles. La tecnología, creada para servirnos, termina observándonos, interpretándonos y, finalmente, transformándonos, sin que hayamos dado jamás permiso consciente para ello. Ante este desafío, proteger nuestra privacidad exige cambiar la forma en que usamos herramientas de inteligencia artificial como ChatGPT, asistentes virtuales o generadores de texto e imagen. Desde mi experiencia con el desarrollo de este tipo de tecnología, estas son algunas recomendaciones concretas que cualquier persona puede aplicar: No compartir información sensible o identificatoria (como el número de documento, dirección, datos de salud o financieros) en conversaciones con IA, porque, aunque parezcan privadas, muchas veces son almacenadas y utilizadas para seguir entrenando los modelos. Revisar las políticas de uso y privacidad antes de interactuar con una IA , debido a que algunas plataformas permiten desactivar el guardado del historial o eliminar conversaciones específicas, como es el caso del chat temporal en ChatGPT, una conversación que no se guarda ni se asocia permanentemente a una cuenta. Desconfiar de las respuestas personalizadas que parecen saber demasiado , ya que, si una IA parece adivinar cosas sobre una persona, probablemente ya accedió a más información de ella. No usar estas herramientas como reemplazo de terapia, asesoramiento legal o médico, especialmente si se piensan compartir detalles personales, ya que no están diseñadas para eso y pueden dejar expuesto al usuario. No estamos condenados a ser víctimas pasivas. La inteligencia artificial no es intrínsecamente maligna. El problema radica en cómo la usamos y regulamos. Es momento de actuar con decisión: nuestra privacidad y nuestra libertad están en juego.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por