- Los expertos consideran que al igual que otros campos la IA debe seguir parámetros o pautas, donde además se respete la pericia del talento humano
La inteligencia artificial (IA) es una tecnología que invita a los científicos y profesionales de la salud a enfatizar en la necesidad de la regulación debido a los códigos de ética que debe cumplir el área médica.
En particular, la IA está revolucionando la industria de la salud al proporcionar a los profesionales médicos mejores herramientas para diagnosticar enfermedades con mayor precisión.
De hecho, una de las empresas que está aprovechando los beneficios de IA es Quibim, que utiliza esa tecnología para transformar imágenes médicas en “predicciones procesables”.
Si bien, los profesionales de la salud desean que la tecnología pueda ayudarlos a atender a los pacientes, por otro lado, varios investigadores no quieren dejar en manos de la IA la toma de decisiones éticas difíciles.
El camino hacia un modelo de regulación
A propósito de ello, en el año 2021, la agencia de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) presentó un documento que se llamó Recomendación sobre la Ética en la Inteligencia Artificial, el cual fue firmado por 193 países, aunque solo 24 lo están implementando formalmente.
Gabriela Ramos, subdirectora general de la Unesco, es impulsora de una declaración internacional sobre ética algorítmica, y cree que si los medicamentos en todo el mundo deben cumplir con estándares de calidad antes de comercialización regional e internacional lo mismo debe aplicarse al área de la tecnología.

ChatGPT puede llegar a “fabricar hechos”
De acuerdo con Heather Mattie, profesora de salud pública de la Universidad de Harvard, que estudia el impacto de la IA en la atención médica, escribió que solicitó a la herramienta ChatGPT un resumen de cómo se ha utilizado el modelado de conexiones sociales para estudiar el VIH, un tema del cual es investigadora.
Sin embargo, la IA tocó temas fuera de su conocimiento, y la investigadora no pudo discernir si la información era fidedigna.
Mattie mostró su preocupación sobre cómo el ChatGPT trata el diagnóstico de enfermedades cardiovasculares y lesiones en cuidados intensivos, ya que a su juicio puede llegar a “fabricar hechos” o no deja muy claro la data de la información en la que se basa para emitir una respuesta.
El peligro está en no aprovechar el potencial
Algunos expertos como la doctora Regina Barzilai creen que no todo es tan malo para la medicina alrededor de la IA.
Barzilai ha desarrollado algoritmos con los que mejorar el diagnóstico del cáncer con el uso de la herramienta, por lo que consideran que “el peligro está en no aprovechar el potencial de una tecnología”.
A diferencia de otros investigadores, cree que con la IA se puede mejorar la precisión del diagnóstico y hasta abaratarlo.
Para Barzilai, el peligro está en retrasar su aplicación a la medicina, porque hay mucha gente que padece las consecuencias de un cuidado médico insuficiente, bien sea por errores médicos o por los costos asociados a la sanidad en todo el mundo.
