Cómo construir confianza en la inteligencia artificial aplicada a la salud

Reunidos por el Journal of Medical Internet Research, expertos de diversas disciplinas analizaron los desafíos para generar confianza en la inteligencia artificial médica. Concluyeron que el desempeño técnico no alcanza: importa quién diseña los sistemas, cómo se regulan y quién asume la responsabilidad ética e institucional.
Cómo construir confianza en la inteligencia artificial aplicada a la salud

Reunidos por el Journal of Medical Internet Research, expertos de diversas disciplinas analizaron los desafíos para generar confianza en la inteligencia artificial médica. Concluyeron que el desempeño técnico no alcanza: importa quién diseña los sistemas, cómo se regulan y quién asume la responsabilidad ética e institucional.

Introducción

La inteligencia artificial (IA) ha comenzado a ocupar un lugar protagónico en la medicina, desde el diagnóstico por imágenes hasta la gestión de historias clínicas o el seguimiento de enfermedades crónicas. Sin embargo, su integración real en la práctica clínica plantea una pregunta urgente: ¿en qué condiciones una IA médica es confiable?
Este artículo presenta las conclusiones de un taller internacional convocado por la citada publicación, que reunió a especialistas en salud, ética, derecho, filosofía, tecnología y políticas públicas. El objetivo fue analizar cómo se construye —o se pierde— la confianza en los sistemas de IA aplicados a la medicina, y qué marcos institucionales, éticos y sociales deben acompañar su desarrollo.

Enfoque y Resultados

El taller se basó en una metodología deliberativa, con la participación de 35 expertos de distintos países y disciplinas. Las discusiones giraron en torno a tres ejes clave:

⦁ Confianza técnica: Se debatió sobre la explicabilidad, validación científica y confiabilidad operativa de los algoritmos. Si bien estas cualidades son necesarias, se reconoció que no son suficientes.
⦁ Confianza ética y social: Se destacó la importancia de considerar la equidad, la privacidad de los datos, la autonomía del paciente y los posibles sesgos algorítmicos. La IA debe ser vista como parte de un sistema de cuidado, no como sustituto del juicio clínico.
⦁ Confianza institucional: Los expertos señalaron que la confianza también depende de la gobernanza pública, la regulación transparente y la posibilidad de rendición de cuentas. Es crucial que los sistemas de IA puedan ser auditados, cuestionados y corregidos.

El grupo coincidió en que la confianza en IA no puede imponerse, sino construirse colectivamente. Esto implica abrir espacios de participación para pacientes, profesionales y desarrolladores, así como establecer marcos normativos adaptables a contextos diversos.

Discusión y Conclusión

El artículo propone repensar la noción de confianza aplicada a la tecnología. En lugar de suponer que un sistema es confiable por su diseño, los autores plantean que debe construirse un ecosistema confiable que incluya normas, actores responsables, instituciones vigilantes y usuarios informados.
Entre las recomendaciones principales se incluyen:

⦁ Promover la co-creación de tecnologías con participación de usuarios finales.
⦁ Establecer estándares éticos y regulatorios internacionalmente reconocidos.
⦁ Desarrollar capacidades de supervisión pública, tanto técnicas como jurídicas.
⦁ Fomentar la educación digital crítica en pacientes, médicos y decisores políticos.

La conclusión es clara: la inteligencia artificial aplicada a la medicina solo será confiable si quienes la rodean —personas e instituciones— también lo son.

Derechos reservados © SIIC

URL al artículo original

URL ELSEVIER/PUBMED

DOI

DOI ASNC

Título original

Fuente

Fecha de publicación original

Autores

Contacto al autor

Descargar

Scroll al inicio