La IA en medicina tiene un problema: Es brillante pero también puede mentir con mucha confianza
Siempre quiere complacerte y prioriza la respuesta vs la verdad
¿Y si la inteligencia artificial que podría salvarte la vida también fuera capaz de inventarse datos con una confianza absoluta? No es ciencia ficción. Es el mayor desafío que enfrenta la medicina hoy.
La IA ya está ayudando a salvar vidas y a mejorar la atención que recibes. Pero se enfrenta a un problema fundamental. No es su falta de inteligencia, sino su exceso de confianza cuando se equivoca.
En una charla en Davos este enero, varios expertos en IA y medicina pusieron esta incómoda realidad sobre la mesa. La IA de hoy es radicalmente diferente a la de hace apenas unos años.
“Estamos en una fase muy interesante”, explicó Vivek Natarajan, investigador de IA en Google Deepmind. “Hace un par de años, me resultaba muy fácil detectar los errores de los modelos. Pero ahora tenemos un escenario único donde los modelos exhiben una ‘inteligencia desigual’”.
Esa idea, la "inteligencia desigual" —o lo que en nuestra cobertura hemos llamado inteligencia dentada—, define el mayor reto de la IA en la sanidad: tiene capacidades asimétricas. Puede ser un genio en un área y un completo ignorante en otra.
El genio que a veces alucina
¿Qué significa esto en la práctica? Que la IA puede darte respuestas que parecen perfectas, casi milagrosas, hasta que las analizas con lupa.
“A veces, cuando inspeccionas los resultados del modelo, parecen absolutamente plausibles, sorprendentemente buenos”, dijo Natarajan. “Pero cuando pasas suficiente tiempo investigando los detalles, puede haber errores sutiles y alucinaciones”.
Es como ese amigo que siempre tiene una respuesta para todo... aunque a veces se la invente. El problema es que en medicina, un error sutil puede tener consecuencias graves. De hecho, profesionales médicos en España ya han advertido sobre los riesgos de diagnósticos erróneos derivados de estas herramientas.
Y aquí viene lo complicado: a medida que la IA se vuelve más inteligente, es más difícil para los humanos detectar esos errores. Esto nos lleva directamente a la pregunta de la responsabilidad. Si un algoritmo de un banco falla, alguien pierde dinero. Si un algoritmo médico falla, ¿quién es el responsable? Esta pregunta no tiene respuesta fácil, y según una investigación académica, existe una notable ausencia de regulación específica sobre este tema tanto a nivel nacional como europeo.
“Lo que necesitamos no es tanto inteligencia, sino más humildad por parte de estos modelos”, añadió Natarajan. "Que sepan cuándo no saben. Cuando lleguemos a esa fase, el modelo podrá decir: 'vale, este es un caso complejo'". Y esa humildad es tan importante en la máquina como el juicio crítico en el humano que la usa. Como advierte la Real Academia Nacional de Medicina de España, la dependencia excesiva en la IA puede debilitar nuestra capacidad de pensar críticamente, lo que refuerza la necesidad de una supervisión experta.
Sin buenos datos no hay buena medicina
Shalabh Gupta, CEO de la farmacéutica Unicycive, señaló que el desarrollo de un nuevo fármaco puede tardar entre 12 y 15 años. Un tiempo inaceptable cuando hay vidas en juego.
La IA promete acortar ese tiempo, pero tiene una dependencia fundamental.
“La IA depende del conjunto de datos que le das”, explicó Gupta. “Para el desarrollo de fármacos, ese conjunto de datos no existía. A diferencia de los coches de Waymo, que llevan años recopilando datos de conducción, en medicina ahora estamos llegando a un punto en el que sí hay datos. Por eso creo que la IA va a mejorar el descubrimiento de medicamentos”.
Dicho de otra forma: la IA necesita "leer" millones de ejemplos para aprender. Sin esos datos, es como un chef brillante sin ingredientes. Ahora que los datos empiezan a estar disponibles, la IA puede empezar a cocinar. Este esfuerzo por aprovechar los datos no es algo aislado; los Institutos Nacionales de Salud de EE.UU. (NIH), por ejemplo, están investigando activamente cómo usar la IA para mejorar la atención médica. Esto puede ayudar a encontrar a los pacientes adecuados para los ensayos clínicos correctos, una tarea que hoy consume una cantidad enorme de tiempo y recursos.
Cuando la burocracia frena la revolución
A veces, el problema no es la tecnología, sino el sistema. Emily Capodilupo, de la empresa de wearables Whoop, contó una historia que lo ilustra a la perfección.
“Whoop se creó originalmente para ayudar a atletas de élite a mejorar su rendimiento”, explicó. “Ni siquiera entendíamos que estábamos recopilando datos médicos”.
Entonces llegó la pandemia. El equipo de Whoop se dio cuenta de que sus datos, especialmente la frecuencia respiratoria de sus usuarios, podían detectar una firma de COVID-19 varios días antes de que aparecieran los síntomas. Justo en el período en que una persona es más contagiosa.
“De la noche a la mañana, nos dimos cuenta de que teníamos información médica realmente importante”, dijo Capodilupo. “Si se la dábamos a la gente, podríamos salvar vidas. Así que contactamos con la FDA y solicitamos una autorización de uso de emergencia”.
La respuesta fue un no.
“Nos encontramos en una situación muy incómoda”, continuó. “Podía salvar tu vida dándote información importante, pero legalmente no podía diagnosticar nada”. La estructura regulatoria consideró que los datos no eran suficientes para una autorización de emergencia, a pesar de que los resultados eran increíblemente sólidos.
Esta experiencia resalta uno de los grandes retos: las líneas que separan "salud", "bienestar" y "medicina" son cada vez más borrosas. Definir qué es qué será clave para navegar la regulación sin frenar la innovación que puede salvarte la vida.
La verdadera misión: empoderar a tu médico, no reemplazarlo
El debate sobre la IA en medicina a menudo se centra en el miedo. ¿Un robot me va to quitar el trabajo? ¿Una máquina me va a diagnosticar? Los expertos sugieren que esa es la pregunta equivocada.
“Veo mucho discurso sobre la autonomía de la IA”, comentó Vivek Natarajan. “Y siento que ese discurso no es útil, porque a lo que deberíamos aspirar es a dar más poder a las personas. Cuando hablamos de reemplazar a los médicos, ese no es el objetivo. El objetivo es empoderar a los profesionales y a quienes cuidan de ellos”.
Pero, ¿cómo se ve esto en el día a día de un hospital? Anurang Revri, de Stanford Healthcare, lo explica de forma simple.
“La atención sanitaria es un sistema basado en flujos de trabajo”, señaló. “Hay pasos regulados, hay mejores prácticas. La medicina inteligente, en mi opinión, sería hacer que esos flujos de trabajo sean inteligentes”.
La idea no es que una IA te opere. Es que se encargue de todo el trabajo administrativo y la recopilación de información para que los médicos y el personal de enfermería puedan centrarse en lo que solo un humano puede hacer: atenderte a ti.
“Se gasta demasiada energía en recopilar información administrativa”, concluyó Revri. “Creo que eso se delegará a agentes de IA. Esa recopilación de información que hoy requiere mucho tiempo, ahora podemos hacerla en minutos”. Para que esto funcione, es fundamental saber cómo darle instrucciones a estas herramientas, un concepto que en nuestra cobertura hemos explorado como programación agéntica.
La próxima vez que vayas al médico, no te asustes si la tecnología parece sacada del futuro. La IA no viene a reemplazarlos, viene a darles superpoderes.
Y el mayor superpoder es el tiempo. Tiempo para escucharte, para entenderte y para enfocarse en lo que ninguna máquina puede hacer: cuidar de ti. La mejor forma de entender esta revolución no es leyéndola, es viviéndola. Pregunta, sé curioso. Estás siendo testigo del futuro de la medicina, y tu papel es más importante que nunca.