La mitad de los casos de emergencia evaluados por IA podrían ser subclasificados, advierte estudio

Un estudio publicado en la revista científica Nature Medicine revela que una herramienta de Inteligencia Artificial (IA) subclasificó el 51,6 % de los casos de emergencia médica y recomendó atención en 24 a 48 horas en lugar de atención inmediata, lo que expone los riesgos de usar IA para consultas de salud.
Cada semana, millones de personas en el mundo recurren a plataformas de inteligencia artificial para consultas sobre bienestar y cuidado personal, pero los especialistas advierten que estas herramientas presentan limitaciones importantes.
Especialistas alertan que la inteligencia artificial no evalúa pacientes de forma física ni emocional, sino que solo analiza la información que brinda el usuario, lo que introduce un margen de error significativo. El riesgo aumenta porque las respuestas suelen ser claras y convincentes, lo que puede generar una falsa sensación de certeza, provocar retrasos en consultas médicas o llevar a decisiones sin respaldo profesional.
El ingeniero Rubén Fallas, docente de la Universidad Hispanoamericana (UH) y experto en ciberseguridad, advirtió que la IA puede ayudar a identificar señales, pero no sustituye un diagnóstico médico. Señaló que una mala descripción de síntomas puede alterar el resultado y que estos sistemas podrían equivocarse hasta en un 50 %, por lo que no deben tener la última palabra.
Cuidado con datos personales y vacíos legales
El uso de estas plataformas implica compartir información altamente confidencial, como diagnósticos, exámenes médicos y antecedentes de salud. Aunque las empresas aseguran contar con cifrado, persisten dudas sobre el manejo de los datos y posibles filtraciones por terceros.
La situación se vuelve más compleja con dispositivos como relojes inteligentes y aplicaciones de monitoreo, que amplían la cantidad de datos recopilados y permiten construir perfiles detallados del estado de salud de los usuarios.
Fallas advirtió que, incluso con contratos de confidencialidad, siempre existe riesgo al subir datos sensibles, y que una filtración podría exponer información médica delicada, como enfermedades crónicas o condiciones específicas. También advirtió que, en escenarios extremos, estos datos podrían ser utilizados con fines maliciosos.
Ante estos retos, la Ley de Protección de la Persona frente al Tratamiento de sus Datos Personales presenta limitaciones. El experto indicó que existe una iniciativa para introducir cambios relevantes, que busca incorporar datos biométricos y datos neurales.
En salud no solo se manejan diagnósticos o exámenes, sino también datos biométricos como huella, rostro o iris, y datos neurales relacionados con la actividad cerebral o la salud mental. Si esta información se filtra, podría usarse en contra de una persona, lo que es especialmente delicado en enfermedades complejas como tumores o condiciones neurológicas.
El especialista señaló que la legislación actual presenta vacíos y consideró que reforzar la protección en biometría y datos neurales ayudaría a limitar el acceso a información sensible por parte de organizaciones.
El uso de inteligencia artificial también tiene implicaciones en la salud mental y la toma de decisiones. En contextos de vulnerabilidad, una respuesta errónea puede generar ansiedad o llevar a decisiones precipitadas. Por ello, el experto insistió en que estas herramientas deben usarse como apoyo informativo y no como sustituto del criterio médico.