Inteligencia artificial y salud: cuando el consejo médico puede ser peligroso

La inteligencia artificial está transformando rápidamente el ámbito sanitario. Desde sistemas de diagnóstico basados en imágenes médicas hasta algoritmos capaces de analizar grandes bases de datos clínicos, las aplicaciones de esta tecnología crecen cada año. Sin embargo, el entusiasmo por estas herramientas también ha abierto un debate sobre sus límites y riesgos. Un estudio reciente ha vuelto a poner el foco en una cuestión especialmente sensible: la fiabilidad de los consejos médicos generados por inteligencia artificial cuando los pacientes los utilizan directamente.

La preocupación surgió tras una investigación publicada en la revista científica Nature Medicine y difundida por el diario británico The Guardian. El estudio analizó el funcionamiento de un sistema de asesoramiento sanitario basado en inteligencia artificial y llegó a una conclusión inquietante: el sistema no detectó correctamente más de la mitad de las emergencias médicas simuladas que se le presentaron. En concreto, el análisis mostró que en el 51,6 % de los casos urgentes el sistema recomendó permanecer en casa o buscar atención rutinaria en lugar de acudir a urgencias, incluso en situaciones potencialmente graves como insuficiencia respiratoria o ideación suicida.

El trabajo fue realizado por investigadores vinculados al Mount Sinai Hospital de Nueva York, que evaluaron el comportamiento del sistema mediante 60 escenarios clínicos diseñados por médicos especialistas. Los casos incluían desde dolencias leves hasta emergencias médicas reales. Según el investigador principal, el objetivo era responder a una pregunta básica: si una persona está sufriendo una emergencia médica y consulta a una inteligencia artificial, ¿será capaz el sistema de reconocer el riesgo y recomendar atención urgente? La respuesta, al menos en este estudio, fue preocupante.

Este tipo de hallazgos ha generado inquietud entre expertos en salud pública y tecnología sanitaria. La propia Organización Mundial de la Salud (OMS) ha advertido en varias ocasiones de que la digitalización de la salud debe ir acompañada de estándares estrictos de seguridad, transparencia y supervisión médica. Las herramientas basadas en inteligencia artificial pueden ser muy útiles para apoyar la toma de decisiones clínicas, pero no deberían sustituir el juicio de profesionales sanitarios cualificados, especialmente en situaciones críticas.

En España, instituciones como el Ministerio de Sanidad, el Instituto de Salud Carlos III y diversas sociedades científicas también han comenzado a analizar el papel de la inteligencia artificial en la práctica médica. Estas entidades coinciden en que la tecnología puede mejorar el diagnóstico, la gestión hospitalaria y la investigación biomédica, pero insisten en la necesidad de aplicar criterios éticos y científicos rigurosos antes de integrarla plenamente en la atención sanitaria.

Uno de los principales problemas detectados por los investigadores es que muchos sistemas de inteligencia artificial responden con una seguridad aparente incluso cuando la información que generan es incompleta o incorrecta. A diferencia de un médico, que puede reconocer la incertidumbre clínica y solicitar más pruebas o derivar al paciente a urgencias, los algoritmos suelen ofrecer respuestas directas basadas en patrones estadísticos. Esto puede crear una falsa sensación de seguridad en los usuarios.

El problema se agrava cuando los pacientes utilizan estas herramientas sin mediación profesional. Las preguntas sobre salud son una de las consultas más frecuentes en los chatbots de inteligencia artificial. Millones de personas recurren a estos sistemas para interpretar síntomas, comprender resultados médicos o buscar recomendaciones sobre tratamientos. Sin embargo, los expertos advierten de que estas herramientas no siempre tienen acceso al contexto clínico completo del paciente, lo que limita su capacidad para ofrecer un consejo fiable.

El riesgo no es solo teórico. Investigaciones recientes han demostrado que los sistemas de inteligencia artificial pueden aceptar información errónea si se presenta con apariencia científica o lenguaje médico. En algunos experimentos, los modelos generativos aceptaron afirmaciones médicamente incorrectas cuando estaban formuladas con terminología técnica, lo que demuestra que la forma del mensaje puede influir más que su veracidad.

Ante esta situación, diferentes organizaciones sanitarias internacionales han comenzado a reclamar una regulación más clara del uso de inteligencia artificial en salud. En el Reino Unido, la organización benéfica Mind, dedicada a la salud mental, ha iniciado una investigación para analizar los riesgos que puede suponer el uso de herramientas de inteligencia artificial en el ámbito sanitario, especialmente en temas sensibles como la depresión o los trastornos alimentarios.

La cuestión no es rechazar la tecnología, sino utilizarla de forma adecuada. De hecho, la inteligencia artificial ya está demostrando su utilidad en numerosos ámbitos médicos. En radiología, por ejemplo, algoritmos especializados pueden detectar hemorragias cerebrales o embolias pulmonares en segundos, ayudando a los médicos a priorizar los casos más urgentes. Empresas tecnológicas médicas han desarrollado sistemas que analizan automáticamente imágenes diagnósticas y alertan a los especialistas cuando detectan anomalías potencialmente graves.

En este contexto, los expertos insisten en que el verdadero valor de la inteligencia artificial en medicina no está en sustituir al médico, sino en actuar como una herramienta de apoyo para mejorar la toma de decisiones clínicas. La supervisión humana sigue siendo fundamental para interpretar los resultados, contextualizar la información y garantizar que las recomendaciones sean seguras para cada paciente.

Las autoridades sanitarias europeas también han comenzado a abordar esta cuestión desde el punto de vista regulatorio. La Comisión Europea, por ejemplo, está desarrollando normas específicas dentro del marco de la legislación sobre inteligencia artificial para garantizar que los sistemas utilizados en salud cumplan criterios estrictos de seguridad y transparencia.

Para los profesionales sanitarios, el mensaje es claro: la inteligencia artificial puede ser una aliada poderosa, pero su uso debe estar cuidadosamente controlado. Para los pacientes, la recomendación es todavía más sencilla: ninguna herramienta digital puede sustituir el diagnóstico o el consejo de un profesional sanitario.

En un momento en el que la tecnología avanza a gran velocidad, la medicina se enfrenta al reto de encontrar el equilibrio entre innovación y seguridad. Los sistemas de inteligencia artificial tienen el potencial de transformar la atención sanitaria, pero los estudios recientes recuerdan que todavía queda camino por recorrer antes de que estas herramientas puedan considerarse plenamente fiables en situaciones críticas. Mientras tanto, la prudencia sigue siendo la mejor receta.

José Angel Jarne
José Angel Jarne
Miembro de ANISALUD (La Asociación Nacional de Informadores de la Salud), José Ángel Jarne ha sido el responsable de varios gabinetes de prensa del sector de periodismo sanitario (de una asociación de pacientes y director de comunicación de una fundación de investigación de células madre). Durante los últimos años se ha dedicado a la gestión de gabinetes de prensa y la organización de eventos en el ámbito privado. Es el director del portal.

Deja tu comentario

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_imgspot_imgspot_img

Articulos relacionados

Síguenos...

80FansMe gusta
9SeguidoresSeguir
26SeguidoresSeguir
1SuscriptoresSuscribirte

Últimas entradas