- La organización alertó de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados
La Organización Mundial de la Salud (OMS) lanzó el 18 de enero una guía con nuevas orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM), un tipo de inteligencia artificial (IA) generativa que va en un rápido desarrollo.
Los LLM son capaces de generar textos y otros contenidos predictivos a partir del procesamiento de datos, como lo hace la herramienta ChatGPT. La OMS alertó que esta tecnología avanza con mayor presencia en la vida de las personas.
El ente internacional recordó que cada vez es más posible el uso de esta herramienta en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos, el desarrollo de fármacos o las tareas de administración sanitaria.
Aunque los LMM están empezando a utilizarse para fines sanitarios específicos, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública.
Por ello, la guía documenta algunos de los potenciales riesgos para los sistemas sanitarios, como el llamado “sesgo de automatización”, por el que se podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando a las personas que utilicen dicha información para tomar decisiones sanitarias.
Vulnerables a ciberataques
Los LMM, como otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de estos algoritmos y la prestación de asistencia médica, recuerda la organización sanitaria de la Organización de las Naciones Unidas (ONU).
Ante esto, el primer paso propuesto por la OMS para una aplicación segura y eficaz de los LMM en el sector sanitario es una participación “vertical e integrada” de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.
Desde las estructuras gubernamentales, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.
La OMS también aconsejó a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías satisfacen los requisitos antes de su uso.
En este sentido, el director del departamento de Salud Digital e Innovación de la OMS, Alain Labrique, aseguró en la presentación de la guía que los gobiernos de todos los países deben liderar de forma cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de las tecnologías de IA, como los LMM.
La OMS advirtió que los esfuerzos también deberán aumentarse en todas las fases de desarrollo de los grandes modelos de lenguaje hacia un diseño “estructurado, inclusivo y transparente”.
Otros requisitos
Los desarrolladores de estas tecnologías deberán también ser capaces de predecir y comprender los posibles efectos secundarios de las IA y diseñarlas para realizar tareas bien definidas con la precisión y fiabilidad necesarias para mejorar la capacidad de los sistemas sanitarios y promover los intereses de los pacientes.
No obstante, a pesar de los desafíos actuales que representan los LMM para el sector sanitario, la OMS también reconoce los enormes beneficios que la IA podría proporcionar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal.
El uso de la IA en la salud
Investigadores de Children’s National, un hospital pediátrico de Estados Unidos, desarrollaron una nueva herramienta con IA para diagnosticar enfermedades cardíacas reumáticas, antes de que un paciente necesite una cirugía.
El 16 de enero, el codirector del Servicio de Anatomía Patológica de la Clínica Universidad de Navarra, Julián Sanz, aseguró que la IA mejorará la precisión en el diagnóstico del cáncer sin sustituir a los especialistas.
El 11 de enero, arxiv, un archivo en línea para las prepublicaciones de artículos científicos, publicó un informe sobre Explorador de Inteligencia Médica Articulada (AMIE), un modelo de IA de Google para diagnosticar enfermedades y que según puede ser más preciso que el de un médico.
De acuerdo con el informe, aún esta tecnología no ha sido probada en pacientes reales. Las pruebas se realizaron en personas que simulan ser pacientes y la tecnología les entrega diagnósticos orientados, especialmente, en condiciones respiratorias y cardiovasculares.