La OMS emitió directrices para el uso ético de Modelos Multi-Modales colosales (LMM) en salud, abordando diagnóstico, ética y regulación. Recomienda colaboración global y participación inclusiva en el desarrollo.

La Organización Mundial de la Salud (OMS) publicó una lista de recomendaciones tanto para las autoridades estatales como para prestadores de servicios sanitarios y para los desarrolladores de inteligencia artificial (IA) generativa y, específicamente, de Modelos Multi-Modales colosales (LMM por sus siglas en inglés) para que esta tecnología sea aprovechada apropiadamente en el entorno médico.

Modelos de este tipo -como ChatGPT y Bard– ya pueden ser usados para fines de diagnóstico, causando preocupación por la precisión de las respuestas que la IA pueda dar, así como cuestionamientos éticos respecto a la labor de los profesionales de las ciencias de la salud.

Por ello, desde la OMS publicaron esta guía, con 40 puntos para “garantizar el uso adecuado de los MMM para promover y proteger la salud de las poblaciones”.

“Los gobiernos de todos los países deben liderar de forma cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de las tecnologías de IA, como los LMM”, declaró el Dr. Alain Labrique, director de Salud Digital e Innovación de la División de Ciencias de la OMS.

Así, la OMS reconoce a grandes rasgos cinco aplicaciones de esta tecnología para la salud: Diagnóstico y atención clínica, como responder a las consultas escritas de los pacientes; uso guiado por el paciente, por ejemplo para investigar síntomas y tratamientos; tareas administrativas y de oficina, como documentar y resumir las visitas de los pacientes en las historias clínicas electrónicas; formación médica y de enfermería, incluida la simulación de encuentros con pacientes; e investigación científica y desarrollo de fármacos, por ejemplo para identificar nuevos compuestos.

Sin embargo, advierten que se corre peligro de entregar observaciones falsas o erradas, o de ser entrenados en base a información o procesos de automatización sesgados. También pueden representar un problema la falta de accesibilidad a los LMMs mejor entrenados, así como los potenciales peligros de ciberseguridad que pueden exponer a los pacientes y los servicios sanitarios.

Las principales recomendaciones para los Estados:

Invertir o proporcionar infraestructuras públicas o sin ánimo de lucro, como potencia informática y conjuntos de datos públicos, accesibles a desarrolladores de los sectores público, privado y sin ánimo de lucro, que exijan a los usuarios adherirse a principios y valores éticos a cambio del acceso.

Utilizar leyes, políticas y reglamentos para garantizar que los LMM y las aplicaciones utilizadas en la atención sanitaria y la medicina, independientemente del riesgo o beneficio asociado a la tecnología de IA, cumplan las obligaciones éticas y las normas de derechos humanos que afectan, por ejemplo, a la dignidad, autonomía o privacidad de una persona.

Asignar a una agencia reguladora existente o nueva la tarea de evaluar y aprobar los LMM y las aplicaciones destinadas a la atención sanitaria o la medicina, según lo permitan los recursos.

Introducir auditorías y evaluaciones de impacto obligatorias, también en materia de protección de datos y derechos humanos, a cargo de terceros independientes, cuando se despliegue un MLM a gran escala. Las auditorías y evaluaciones de impacto deben publicarse e incluir resultados e impactos desglosados por tipo de usuario, por ejemplo por edad, raza o discapacidad.

Las principales recomendaciones para los desarrolladores:

Los LMM no sólo son diseñados por científicos e ingenieros. Los usuarios potenciales y todas las partes interesadas directas e indirectas, incluidos los proveedores de servicios médicos, los investigadores científicos, los profesionales de la salud y los pacientes, deben participar desde las primeras etapas del desarrollo de la IA en un diseño estructurado, inclusivo y transparente, y deben tener la oportunidad de plantear cuestiones éticas, expresar sus preocupaciones y hacer aportaciones a la aplicación de la IA que se esté estudiando.

Los LMM están diseñados para realizar tareas bien definidas con la precisión y fiabilidad necesarias para mejorar la capacidad de los sistemas sanitarios y promover los intereses de los pacientes. Los desarrolladores también deben ser capaces de predecir y comprender los posibles resultados secundarios.