El doctor Antonio Blanco Portillo, especialista en medicina interna en el Hospital Universitario 12 de Octubre de Madrid y máster en bioética clínica, fue invitado por el comité de ética asistencial del Área de Salud de Menorca para hablar sobre Inteligencia Artificial (IA) en el entorno sanitario. La conferencia celebrada en el Hospital Mateu Orfila despertó el interés de numerosos profesionales, ya que el uso de esta tecnología disruptiva en la salud es un tema de actualidad y que plantea nuevos interrogantes. Antonio Blanco es coordinador del Grupo de Trabajo de Bioética y Profesionalismo de la Sociedad Española de Medicina Interna (SEMI).
La IA ya ha irrumpido en la sanidad, ¿para qué se utiliza hoy día?
—Fundamentalmente a la hora de responder preguntas clínicas, la IA puede ayudarnos y darnos indicaciones para resolver sospechas diagnósticas o en la búsqueda de tratamientos. Hay un nuevo horizonte de posibilidades que se abre. En algunos hospitales ya se usa para describir radiografías o llegar a ciertos diagnósticos, aunque yo creo que eso está por estandarizar, si se hace se tiene que hacer con seguridad y fiabilidad. Ahí hay un terreno todavía por trabajar.
¿Habría que establecer unos protocolos para su uso?
—Sí, creo que sería interesante que todas estas herramientas estuvieran bien explicadas a los profesionales, que sepan cómo funcionan y sus márgenes de errores. Cuando acerquemos estas inteligencias artificiales, elaboradas por ingenieros con ayuda probablemente de profesionales sanitarios, al ámbito de la salud habrá que explicarlas bien, protocolizarlas y hacer una cierta nomativización. Los comités de ética podrían ser quienes dieran el sello de calidad cuando se implante un algoritmo en nuestra rutina diaria. Se requiere esa supervisión humana.
¿Qué tipo de herramientas de IA utiliza en su trabajo diario?
—Como médico internista de urgencias, mi realidad es que, más allá del uso de aplicaciones y hacer consultas, con ChatGPT, Open Evidence (buscador de IA especializado en contenido médico, que proporciona las fuentes de donde extrae la información), u otro tipo de chatbots para el ámbito sanitario, que yo sea consciente no se usa ninguna herramienta más. Se emplea para resolver alguna duda en tratamientos, es una búsqueda bibliográfica muy rápida, y también hay aplicaciones concretas que hacen algoritmos de decisión. Todavía no está plenamente implementada.
¿Será siempre necesario un ser humano al mando?
—Sí, yo lo creo así y también las directrices europeas. No sé en otros contextos socioculturales qué se acabará haciendo, pero desde luego en la Unión Europea se está velando por que estos sistemas cuenten con supervisión humana. La Ley de Inteligencia Artificial de la UE se aprobó en marzo, aunque la mayoría de las normas no se aplicarán hasta 2026. Que estas inteligencias nos sustituyan o no, es una cuestión que atemoriza a la gente, también los médicos podemos pensarlo. Se hizo un estudio, con sus sesgos y metodología de aquella manera, pero que señalaba que las respuestas de ChatGPT a preguntas de pacientes eran más empáticas que las de los médicos.
¿Qué lección se puede extraer de ese resultado?
—Es algo que debe hacernos replantear un poco qué estamos haciendo, qué quieren las personas, y puede servirnos también para ser mejores e intentar poner el foco en cuestiones que a lo mejor nos han pasado desapercibidas.
(El estudio referido lo realizó Jama Network, revista global abierta de contenido médico, en 2023, comparando las respuestas de facultativos y chatbots, asistentes de IA, a preguntas de enfermos publicadas en un foro de redes sociales).
¿Los futuros médicos están estudiando esta tecnología?
—Son cuestiones tan punteras y actuales que todavía se quedan fuera. Es un punto débil, hay que incluirlo y hacer que la formación sobre IA llegue a todos los profesionales, y lo digo desde la autocrítica, nosotros desde los comités de ética lo intentamos.
¿De qué manera entra en conflicto el uso de IA en la sanidad con la ética?
—La IA viene a complejizar la relación clínica y la actividad asistencial, aunque nos puede aportar un valor añadido. Plantea nuevos problemas éticos, como el problema de la explicabilidad de algoritmos que funcionan con caja negra, el porqué se toman determinadas decisiones, eso puede restar confiabilidad ante los pacientes.
¿Cómo funcionan esos algoritmos en salud y por qué pueden generar desconfianza?
—Estos sistemas computacionales, que usan redes neuronales, analizan muchos datos, buscan patrones y analizan resultados, vemos el inicio y el final, vemos que funcionan, pero no sabemos cómo han obtenido ese resultado. Lo que se esconde ahí es la caja negra, los modelos de IA que te dan un resultado. Habrá programas en el entorno sanitario que funcionan con estas herramientas del deep learning y es difícil explicarlo. Eso tiene un riesgo a la hora de tomar decisiones y puede restar confianza del paciente en el médico y en el sistema sanitario en general.
¿Qué otros retos se plantean?
—La cuestión de la privacidad, es probablemente lo que más en riesgo está, y lo que también se está cuidando más desde las estructuras e instituciones.
Nuestros datos son una mina.
—Sí. Para elaborar todas estas herramientas lo que se necesita son datos, datos, datos, que salen de cada uno de nosotros, y en el entorno sanitario eso son las historias clínicas. Cómo damos los datos, si consentimos..., es verdad que en España eso funciona muy bien, siempre ha habido mucho cuidado en velar por la confidencialidad y el secreto profesional, y hacer que sea muy difícil acceder a esos datos. Pero es evidente que hay un interés económico detrás, ha habido ciberataques por conseguirlos. (Recuerda el ataque con ransomware al Hospital Clínic de Barcelona en 2023).
¿Cómo se regulará esa cesión de datos para alimentar la IA usada en la sanidad?
—Es precisamente lo que trata la nueva normativa europea. La cesión de datos se basa en el consentimiento informado. Habrá datos de uso primario, como el acceso a la historia clínica en cualquier lugar de Europa, y otros de uso secundario o de investigación, que tendrán dos tipos de consentimientos, uno explícito y otro será una exclusión voluntaria, es decir, si quieres hacer un estudio con mis genes necesitarás el consentimiento explícito, y si son datos básicos te podrán ofrecer la exclusión, que salgas de esa lista.
Un acto organizado por el comité de ética del Área de Salud
2 comentarios
Para comentar es necesario estar registrado en Menorca - Es diari
Ya ya... No falta mucho para que sea la maldita I.A. la que nos supervise a los humanos, y lo más gracioso será que ni nos vamos a enterar. Y si no, al tiempo...
Si ya hay medicos que no dan pie con bola, nos espera una buena…