Los facultativos temen que se desdubuje la frontera entre negocio y salud con esta nueva herramienta segmentada
El anuncio de OpenAI sobre el lanzamiento de ChatGPT Salud 2026 ha despertado un notable interés público, pero también cierta inquietud entre los expertos de esta tecnología en el ámbito sanitario. Así, José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA, analiza en Redacción Médica el alcance y los riesgos de esta nueva herramienta que promete transformar la relación de los ciudadanos con su información médica.
Según explica, ChatGPT Salud se presenta como «un copiloto sanitario: un espacio dentro de ChatGPT en el que el usuario puede conectar datos de bienestar – como por ejemplo, Apple Health o MyFitnessPal- y, en determinados casos, también sus registros médicos, para entender analíticas, preparar una cita o seguir patrones de hábitos«. Bajo este enfoque de empoderamiento ciudadano, el experto advierte que «se esconde una estrategia empresarial audaz que nos obliga a analizar los fundamentos éticos y legales de esta nueva frontera digital».
Riesgos: el «guion» de la IA y el sesgo de autoridad
Además, subraya que el desarrollo de la Inteligencia Artificial avanzada no depende únicamente del prestigio técnico, sino de su adopción masiva. «Los modelos a gran escala cuestan mucho de entrenar y, sobre todo, de servir a millones de personas. Por eso la salud es un territorio tentador: es universal, recurrente y emocional«, afirma. OpenAI sostiene que «cada semana, más de 230 millones de personas plantean preguntas de salud y bienestar en ChatGPT», un dato que, según el experto, convierte en lógica la decisión de transformar ese uso espontáneo en un producto especializado, aunque no está exenta de consecuencias.
En ese escenario, el profesional sanitario, según Trujillo, «deja de explorar un relato para negociar un guion ya consolidado que trae el paciente». Por eso, añade una advertencia clave: «En Medicina, un guion convincente puede ser tan peligroso como un error serio si genera falsa tranquilidad, sobrediagnóstico o retrasos en acudir a consulta».
Otro elemento crítico es el sesgo de autoridad. «Tendemos a conceder credibilidad extra a lo que suena experto, coherente y ‘científico’», explica, recordando que en contextos de salud «la ansiedad reduce el contraste: quien tiene miedo compra certezas». En este sentido, alerta de que «un modelo generativo puede equivocarse con prosa impecable y esa mezcla -error más elegancia- es especialmente tóxica cuando se transforma en ‘consejo'».
Para el experto, las advertencias legales no son suficientes y no basta con avisar de que la IA «no sustituye a médico», sostiene. «Si la herramienta interpreta resultados, delimita ‘siguientes pasos’ o prioriza riesgos, ya está influyendo en conductas, incluso cuando se presenta como mera orientación».
Entre las preguntas que siguen abiertas, Trujillo enumera algunas: «¿Qué se guarda exactamente? ¿Qué terceros intervienen cuando se conectan registros médicos? ¿Con qué granularidad puede el ciudadano ver, revocar y auditar lo que comparte?». Y concluye: «Europa ha aprendido, por experiencia, que ‘cumplimos’ no siempre equivale a ‘protegemos’, y en salud la ambigüedad se paga cara».
Trujillo concluye que el debate no pasa por rechazar la innovación, sino por fijar límites claros: «No se trata de demonizar el desarrollo de la IA en salud. Se trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión». Para ello, defiende «condiciones irrenunciables: separación real de datos, auditorías independientes, evaluación de sesgos, supervisión humana operativa y prohibición -o, como mínimo, etiquetado inequívoco- de cualquier contenido patrocinado o con conflicto de interés».
Recibe cada semana las claves de salud, sanidad y ciencia



