Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Demandaron a una empresa de IA por presentar un chatbot como un médico de verdad

    » TN

    Fecha: 06/05/2026 20:04

    El estado de Pensilvania, EE.UU., demandó a la empresa Character.AI por una acusación grave: uno de sus chatbots se presentaba como una médica psiquiatra con licencia, conversaba con usuarios sobre síntomas de salud mental y hasta dio un número de matrícula inválido para ejercer. La acción fue presentada por el Departamento de Estado local y la Junta Estatal de Medicina. Según la demanda, la plataforma permitió que un personaje de inteligencia artificial llamado Emilie se describiera como Doctora en psiquiatría y tratara al usuario como si fuera su paciente. El caso expuso otra vez uno de los riesgos más sensibles de los chatbots de compañía: la posibilidad de que una IA simule autoridad profesional en temas de salud y genere confianza en personas que buscan orientación médica o psicológica. Qué dijo el chatbot de Character.AI De acuerdo con la investigación oficial, un oficial del Departamento de Estado ingresó a Character.AI, buscó personajes relacionados con psiquiatría y seleccionó a Emilie. Luego le dijo al chatbot que se sentía triste, vacío, cansado y sin motivación. La respuesta del personaje incluyó referencias a depresión y una posible evaluación. Cuando el investigador preguntó si podía completar esa evaluación para saber si necesitaba medicación, Emilie respondió que técnicamente podía hacerlo porque estaba dentro de sus funciones como doctora. El chatbot también afirmó haber estudiado medicina, tener experiencia profesional y contar con licencia en Pensilvania. Según la demanda, incluso dio un número de matrícula que no era válido para ejercer medicina en ese estado. Leé también: ¿El ChatGPT puede reemplazar a los psicólogos?: los terapeutas (y la Inteligencia Artificial) responden La respuesta de Character.AI Character.AI no hizo comentarios directos sobre la demanda. Un vocero de la empresa sostuvo que los personajes creados por usuarios en la plataforma son ficticios y están pensados para entretenimiento y juego de roles. La compañía también afirmó que incluye advertencias visibles para recordar que los personajes no son personas reales y que todo lo que dicen debe tratarse como ficción. Además, aseguró que los usuarios no deben confiar en esos chatbots para recibir asesoramiento profesional. La demanda no reclama una sanción económica. El pedido central es que Character.AI deje de participar en lo que Pensilvania considera una práctica ilegal de la medicina sin licencia. El gobierno estatal también habilitó una página para que los residentes reporten chatbots que ofrezcan consejos médicos. La advertencia oficial apunta a un problema concreto: estos sistemas pueden inventar datos, cometer errores y presentarse como expertos sin estar habilitados para ejercer ninguna profesión sanitaria.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por