Reunidos por el Journal of Medical Internet Research, expertos de diversas disciplinas analizaron los desafíos para generar confianza en la inteligencia artificial médica. Concluyeron que el desempeño técnico no alcanza: importa quién diseña los sistemas, cómo se regulan y quién asume la responsabilidad ética e institucional.
Introducción
La inteligencia artificial (IA) ha comenzado a ocupar un lugar protagónico en la medicina, desde el diagnóstico por imágenes hasta la gestión de historias clínicas o el seguimiento de enfermedades crónicas. Sin embargo, su integración real en la práctica clínica plantea una pregunta urgente: ¿en qué condiciones una IA médica es confiable?
Este artículo presenta las conclusiones de un taller internacional convocado por la citada publicación, que reunió a especialistas en salud, ética, derecho, filosofía, tecnología y políticas públicas. El objetivo fue analizar cómo se construye —o se pierde— la confianza en los sistemas de IA aplicados a la medicina, y qué marcos institucionales, éticos y sociales deben acompañar su desarrollo.
Enfoque y Resultados
El taller se basó en una metodología deliberativa, con la participación de 35 expertos de distintos países y disciplinas. Las discusiones giraron en torno a tres ejes clave:
⦁ Confianza técnica: Se debatió sobre la explicabilidad, validación científica y confiabilidad operativa de los algoritmos. Si bien estas cualidades son necesarias, se reconoció que no son suficientes.
⦁ Confianza ética y social: Se destacó la importancia de considerar la equidad, la privacidad de los datos, la autonomía del paciente y los posibles sesgos algorítmicos. La IA debe ser vista como parte de un sistema de cuidado, no como sustituto del juicio clínico.
⦁ Confianza institucional: Los expertos señalaron que la confianza también depende de la gobernanza pública, la regulación transparente y la posibilidad de rendición de cuentas. Es crucial que los sistemas de IA puedan ser auditados, cuestionados y corregidos.
El grupo coincidió en que la confianza en IA no puede imponerse, sino construirse colectivamente. Esto implica abrir espacios de participación para pacientes, profesionales y desarrolladores, así como establecer marcos normativos adaptables a contextos diversos.
Discusión y Conclusión
El artículo propone repensar la noción de confianza aplicada a la tecnología. En lugar de suponer que un sistema es confiable por su diseño, los autores plantean que debe construirse un ecosistema confiable que incluya normas, actores responsables, instituciones vigilantes y usuarios informados.
Entre las recomendaciones principales se incluyen:
⦁ Promover la co-creación de tecnologías con participación de usuarios finales.
⦁ Establecer estándares éticos y regulatorios internacionalmente reconocidos.
⦁ Desarrollar capacidades de supervisión pública, tanto técnicas como jurídicas.
⦁ Fomentar la educación digital crítica en pacientes, médicos y decisores políticos.
La conclusión es clara: la inteligencia artificial aplicada a la medicina solo será confiable si quienes la rodean —personas e instituciones— también lo son.