Foto: Unsplash

El grupo de científicos comenzó estudiando el sesgo presente en cuatro modelos de predicción para la validación de los resultados de COVID-19.

Un grupo de investigadores de Harvard y del MIT ha desarrollado un marco para evaluar y abordar el sesgo que presenta en la inteligencia artificial (IA) con respecto a la elaboración y presentación de informes en diversas tecnologías de atención médica.

Según un estudio divulgado en la revista especializada JAMIA, este sesgo puede provocar daños directos a los pacientes, por lo cual los investigadores procuran desarrollar un marco para ayudar a evaluarlo y abordarlo de la mejor manera posible.

El grupo de científicos comenzó estudiando el sesgo presente en cuatro modelos de predicción para la validación de los resultados de COVID-19. Realizaron dos tipos de evaluaciones: una retrospectiva para determinar si los modelos estaban sesgados al momento de su creación, y otra prospectiva para establecer si el sesgo se dio con el paso del tiempo al aplicar los modelos en pacientes que se infectaron después del entrenamiento de los algoritmos.

Se analizaron los datos de los resultados positivos de las pruebas PCR de 56.590 personas desde marzo de 2020 hasta septiembre de 2021. Los investigadores utilizaron 15.000 pruebas para entrenar y probar el modelo retrospectivo, mientras que las otras 41.000 se usaron para el modelo prospectivo.

Desde la perspectiva del nivel del modelo, los expertos no encontraron un sesgo consistente contra todos los grupos minoritarios en el conjunto de datos. Sin embargo, a nivel individual sí se plasmó un sesgo notable en forma de tasas de error más altas para las personas mayores. En comparación con los modelos entrenados con datos de todos los pacientes, los modelos retrospectivo y prospectivo funcionaron ligeramente peor a lo largo del tiempo para las personas de sexo masculino y mejor para las latinas de sexo femenino.

Los investigadores detectaron que estos sesgos son impulsados ​​por varios factores, que van desde las disparidades en la atención médica, los problemas de calidad de los datos, los determinantes sociales de la salud y las desigualdades sistemáticas. Estos factores pueden hacer que ciertos factores predictores no sean tomados en cuenta o también representar un obstáculo para que un dispositivo de inteligencia artificial analice con precisión los datos.

De igual forma, pueden surgir problemas relacionados con la data debido a la forma en la que se crea o se recopila. Con el propósito de abordar estos problemas, los autores sugieren generar conciencia sobre las limitaciones de los datos, alentar el uso de las mejores prácticas metodológicas existentes para las evaluaciones y mejorar las expectativas de publicación en torno a la transparencia y la presentación de informes.