/COMUNICAE/
Un informe sobre tendencias de la IA contempla un desarrollo en la asistencia sanitaria y la investigación superior a cualquier avance científico hasta la fecha pero también riesgos de desinformación. Los proyectos más innovadores en salud digital se presentarán en el Hackathon Salud, que tendrá lugar el 13 de diciembre en el Hospital Ramón y Cajal de Madrid
Las tres sociedades científicas de Atención Primaria (SEMERGEN, semFYC y SEMG), la sociedad española de radiología (SERAM) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (FAECAP) se han unido a la Asociación de Innovadores en eSalud (AIES) y al Instituto #SaludsinBulos para promover un código ético sobre la Inteligencia Artificial (IA) en Salud. Con él se pretende concienciar de la necesidad de que el desarrollo de la IA siga unos estándares éticos en cuanto a privacidad de los datos y veracidad de las fuentes de información, entre otros.
Este consenso, al que se prevé que se sumen el resto de las más de 70 organizaciones asociadas a AIES y #SaludsinBulos, pretende sentar las bases de las soluciones digitales de salud que se desarrollen con IA. Algunas de estas soluciones serán expuestas en el Hackathon Salud, un proceso de cocreación de proyectos digitales para mejorar la asistencia sanitaria que culmina el 13 de diciembre en el Hospital Ramón y Cajal (Madrid), organizado por la plataforma de innovación ITEMAS (dependiente del Instituto de Salud Carlos III), AIES y la agencia COM Salud.
La IA es el principal motor de transformación de la asistencia sanitaria y la investigación médica, en un grado muy superior y a mayor velocidad que la suma de todos los avances científicos hasta la fecha, según revela el informe elaborado por AIES y #SaludsinBulos, pero también presenta peligros relacionados con la desinformación. «Los mejores deep fakes, fotos, vídeos y audios creados por Inteligencia Artificial que pretenden hacerse pasar por reales, son ya indetectables. No existe ninguna tecnología eficaz que pueda distinguirlos de los reales», alerta Carlos Mateos, vicepresidente de AIES, coordinador del Instituto #SaludsinBulos y del Hackathon Salud.
Por ese motivo, uno de los objetivos del Hackathon Salud es impulsar soluciones basadas en la IA que ayuden a combatir la desinformación en salud, como análisis de la conversación en redes sociales y bots que recomienden fuentes fiables. En esta edición de 2023 hay varios retos relacionados con la información veraz en salud y la lucha contra los bulos en medicamentos.
El Informe de Tendencias de IA en Salud enumera proyectos e iniciativas preferentemente locales que permiten entender mejor la situación de la inteligencia artificial para el sector salud en prevención, diagnóstico, medicina personalizada y desinformación en salud.
«Los cambios que conlleva la adopción de la IA obligan a que los profesionales sanitarios se formen para adaptarse a ella, ya que en pocos años se considerará negligencia no haber consultado la IA para el diagnóstico o tratamiento», explica la doctora Carmen Jódar, presidenta de AIES. Por ese motivo, desde AIES, se ha puesto en marcha un programa de formación gratuito en IA en salud para las sociedades científicas y colegios profesionales.
Así, uno de los proyectos relevantes que destaca el documento está en marcha en la Clínica Universidad de Navarra. Ha desarrollado un sistema de detección de tumores de endometrio de bajo grado, el cual preside la agresividad de las células. El 10% de las mujeres con cáncer de endometrio sufre recaídas de la enfermedad, siendo este uno de los cánceres más agresivos que existen en la actualidad. El proyecto se basa en el estudio de 250 biopsias de pacientes del hospital de La Paz con cáncer de endometrio, a partir del cual se ha desarrollado un sistema basado en un algoritmo que permite visualizar las múltiples células del sistema inmune y sus interacciones con aquellas células que tienen carácter tumoral, buscando patrones personalizados en cada mujer.
Impulso a la eficiencia en la gestión sanitaria
Además, la IA ha permitido el avance y mejora de sistemas de identificación de patologías que a menudo se encuentran invisibilizadas, como ocurre en la especialidad de dermatología. Desde el Hospital Universitario de Torrejón se ha desarrollado un proyecto destinado al análisis automático de imágenes de la piel, un dispositivo que permite detectar a partir de sistemas diagnósticos asistidos por ordenador (DAO), todas las patologías dermatológicas conocidas que puede padecer el paciente. Analiza automáticamente imágenes y es capaz del autorelleno de escalas de medición. De este modo, la herramienta permite evaluar y controlar a los pacientes desde el domicilio, aumentando la eficiencia de la gestión sanitaria.
Consenso ético sobre IA en salud:
Autonomía: los sistemas de inteligencia artificial deben preservar la autonomía de las personas. En salud deben incorporar mecanismos para que los profesionales puedan supervisar e intervenir para evitar ser dirigidos injustificadamente, y que puedan revisar y corregir cualquier resultado de dichos sistemas. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.
Bienestar: el uso de la inteligencia artificial debe promover el bienestar de las personas, y su finalidad debe estar orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.
Confiabilidad: para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas en vigor, justo; evitando sesgos y creencias injustificadas; y robusto técnicamente.
Equidad: el uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.
Información veraz: la IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello deben ayudar a identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.
Privacidad: los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica.
Representatividad: las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo. Y así cumplir con los principios de justicia, igualdad, diversidad e inclusión con los que mitigar los riesgos para los derechos fundamentales y la seguridad que plantea la IA, y que no están cubiertos por otros marcos jurídicos existentes.
Responsabilidad: deben existir mecanismos, acogidos a la legislación, que aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA. Es necesaria una rendición de cuentas que reconozca la responsabilidad ante aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas, que puedan cuestionarlas y obtener una reparación.
Sostenibilidad: los sistemas de IA deben ser evaluados de forma continua y transparente en situaciones reales para saber si cumplen de forma adecuada sus expectativas y las necesidades para las que fueron creados. Los sistemas deben reducir al mínimo sus efectos medioambientales y ser eficientes energéticamente.
Transparencia: la transparencia es la cualidad que hace posible que los sistemas de IA puedan ser comprensibles. Estos deben proveer de información suficiente para conocer sus capacidades y sus limitaciones, permitir realizar una trazabilidad de sus acciones y ser explicables.
Fuente Comunicae