La 'explicabilidad', básica para el uso de IA en clínica

Política y Normativa carmenfernandez Jue, 13/03/2025 - 15:09 Nuevas tecnologías Prudencia a la hora de seleccionar una aplicación o solución de inteligencia artificial (IA) para su uso en clínica es la principal conclusión de un debate sobre la utilización de esta tecnología en la práctica médica organizado por la Fundación Vila Casas en Barcelona. Marine Renard, médico urgencióloga, especialista en Endocrinología y nutrición y coordinadora UF-IA del Hospital del Mar, y Xavier Borrat, médico anestesiólogo, responsable del Servicio de Informática Clínica del Hospital Clínic de Barcelona, profesor asociado de Bioingeniería de la Universidad de Barcelona e investigador afiliado al Instituto de Tecnología de Masachusets (MIT), en Estados Unidos, han alertado de lo mucho que está en juego: el error de un médico puede afectar a uno o a 40 pacientes, pero el error de estas aplicaciones basadas en algoritmos puede llegar a afectar a miles o millones.En ese marco han abogado por una evaluación rigurosa de esa tecnología que incluya la explicabilidad; un algoritmo es explicable cuando se puede interpretar y entender cómo ha obtenido sus predicciones o resultados. Dicho de otra forma: no basta con saber el porcentaje de acierto del algoritmo de IA sino que hay que saber, con exactitud, por qué acierta.Han  puesto el ejemplo de un algoritmo destinado a detectar cáncer de mama en imagen médica que obtenía un acierto del 100% en identificación de casos positivos pero que, estudiando la causa de ese resultado, vieron que se fijaba en una pequeña señal roja con la que en origen (radiología) se marcaban las imágenes de los pacientes con diagnóstico de cáncer. Renard ha partido de la base de la trascendencia que va a tener la IA en clínica, en especial para la medicina de precisión, por el simple motivo de que el cerebro humano (del médico) puede analizar 5 o 6 variables pero los algoritmos tiene capacidad para hacerlo con centenares de variables.Otro ejemplo, de Renard: con un algoritmo se pueden liberar con más agilidad camas en urgencias y beneficiar así a más pacientes que las necesiten, pero si ese mismo algoritmo se extiende a muchos otros centros entonces el resultado ya no es el de liberar camas, que también, sino salvar muchas vidas. MWC: Cataluña lleva la inteligencia artificial a la primaria, MWC: Bellvitge desarrolla una herramienta de IA para críticos, MWC: el Sergas generaliza el uso de IA en esclerosis múltiple Pero para lograr que la IA suponga una gran aportación sanitaria y médica, además de ser cuidadosos con la evaluación previa a la incorporación a la p Tan importante como el porcentaje de aciertos es entender cómo los algoritmos obtienen resultados, se ha concluido en un debate en la Fundación Vila Casas. Off Carmen Fernández Off

Mar 13, 2025 - 17:38
 0
La 'explicabilidad', básica para el uso de IA en clínica
Política y Normativa
carmenfernandez
Nuevas tecnologías

Prudencia a la hora de seleccionar una aplicación o solución de inteligencia artificial (IA) para su uso en clínica es la principal conclusión de un debate sobre la utilización de esta tecnología en la práctica médica organizado por la Fundación Vila Casas en Barcelona. Marine Renard, médico urgencióloga, especialista en Endocrinología y nutrición y coordinadora UF-IA del Hospital del Mar, y Xavier Borrat, médico anestesiólogo, responsable del Servicio de Informática Clínica del Hospital Clínic de Barcelona, profesor asociado de Bioingeniería de la Universidad de Barcelona e investigador afiliado al Instituto de Tecnología de Masachusets (MIT), en Estados Unidos, han alertado de lo mucho que está en juego: el error de un médico puede afectar a uno o a 40 pacientes, pero el error de estas aplicaciones basadas en algoritmos puede llegar a afectar a miles o millones.

En ese marco han abogado por una evaluación rigurosa de esa tecnología que incluya la explicabilidad; un algoritmo es explicable cuando se puede interpretar y entender cómo ha obtenido sus predicciones o resultados. Dicho de otra forma: no basta con saber el porcentaje de acierto del algoritmo de IA sino que hay que saber, con exactitud, por qué acierta.

Han  puesto el ejemplo de un algoritmo destinado a detectar cáncer de mama en imagen médica que obtenía un acierto del 100% en identificación de casos positivos pero que, estudiando la causa de ese resultado, vieron que se fijaba en una pequeña señal roja con la que en origen (radiología) se marcaban las imágenes de los pacientes con diagnóstico de cáncer. 

Renard ha partido de la base de la trascendencia que va a tener la IA en clínica, en especial para la medicina de precisión, por el simple motivo de que el cerebro humano (del médico) puede analizar 5 o 6 variables pero los algoritmos tiene capacidad para hacerlo con centenares de variables.

Otro ejemplo, de Renard: con un algoritmo se pueden liberar con más agilidad camas en urgencias y beneficiar así a más pacientes que las necesiten, pero si ese mismo algoritmo se extiende a muchos otros centros entonces el resultado ya no es el de liberar camas, que también, sino salvar muchas vidas.

MWC: Cataluña lleva la inteligencia artificial a la primaria, MWC: Bellvitge desarrolla una herramienta de IA para críticos, MWC: el Sergas generaliza el uso de IA en esclerosis múltiple
Pero para lograr que la IA suponga una gran aportación sanitaria y médica, además de ser cuidadosos con la evaluación previa a la incorporación a la p
Tan importante como el porcentaje de aciertos es entender cómo los algoritmos obtienen resultados, se ha concluido en un debate en la Fundación Vila Casas. Off Carmen Fernández Off