La IA para el diagnóstico psiquiátrico presenta sesgos y problemas de aplicabilidad clínica

Por Shania Kennedy

– A revisión sistemática publicado la semana pasada en Red JAMA Abierta Al evaluar los riesgos potenciales de traducir los modelos de inteligencia artificial (IA) basados ​​en neuroimágenes en aplicaciones clínicas directas, como el diagnóstico psiquiátrico, se encontró que la mayoría de los modelos deben abordar el riesgo de sesgo y otros problemas de aplicabilidad antes de la implementación en el entorno clínico.

Los investigadores notaron que la falta de biomarcadores para informar las prácticas de diagnóstico psiquiátrico ha aumentado el interés en los enfoques de neuroimagen basados ​​​​en IA y aprendizaje automático (ML). Estos modelos tienen como objetivo permitir el uso de lo que los autores llaman “una estimación objetiva, centrada en los síntomas, individualizada y neurobiológicamente explicable de las condiciones psiquiátricas”, en comparación con un diagnóstico clínico, que se basa en síntomas discretos.

Sin embargo, los investigadores indicaron que la falta de evaluaciones basadas en evidencia de dichas herramientas limita su aplicación en la práctica clínica.

Para ayudar a cerrar esta brecha de investigación, los autores realizaron una revisión de 517 estudios completos revisados ​​por pares que analizan 555 modelos de IA basados ​​en neuroimagen para diagnósticos psiquiátricos publicados entre el 1 de enero de 1990 y el 16 de marzo de 2022, y disponibles a través de PubMed .

Después de la selección de los estudios, los investigadores extrajeron los datos para evaluar el riesgo de sesgo y la calidad de los informes de cada modelo mediante la Lista de verificación para la evaluación crítica y la extracción de datos para las revisiones sistemáticas de los estudios de modelos de predicción (CHARMS) y los Elementos de informes preferidos para las revisiones sistemáticas y los metanálisis ( marcos PRISMA).

También se utilizaron puntos de referencia tomados de la Herramienta de evaluación del riesgo de sesgo del modelo de predicción (PROBAST) y la Lista de verificación modificada para la evaluación de informes de inteligencia artificial basada en imágenes (CLEAR) para evaluar el riesgo de sesgo y la calidad de los informes.

En general, se calificó a 461 modelos como de alto riesgo de sesgo, particularmente en el dominio del análisis, debido a factores como el tamaño inadecuado de la muestra, el examen deficiente del rendimiento del modelo y la falta de complejidad en el manejo de los datos. Los modelos también mostraron una mala calidad de los informes, y todos los artículos proporcionaron informes incompletos para la validación. La integridad promedio de los informes en todos los modelos alcanzó solo el 61,2 por ciento.

Estos hallazgos muestran que el alto riesgo de sesgo y la mala calidad de los informes son barreras importantes para la aplicabilidad clínica y la viabilidad de los modelos de inteligencia artificial basados ​​en neuroimágenes para el diagnóstico psiquiátrico, afirmaron los investigadores. En el futuro, los autores recomiendan que el trabajo en esta área aborde el riesgo de sesgo en estos modelos antes de que se utilicen en la práctica clínica.

Esta revisión destaca los múltiples desafíos que enfrentan los médicos, los investigadores y las partes interesadas en la salud pública al usar el análisis de big data para mejorar la atención de la salud mental.

Otro obstáculo importante al aprovechar la IA en esta área es una preocupación más amplia dentro de las imágenes médicas: el rendimiento de la IA en el diagnóstico basado en imágenes.

Investigación publicada el año pasado en Informes científicos descubrió que las redes neuronales profundas (DNN) son más propensas a cometer errores en los diagnósticos médicos basados ​​en imágenes que los médicos humanos, una variación que, según la hipótesis de los investigadores, puede indicar que los médicos y la IA usan diferentes funciones para el análisis cuando miran imágenes médicas.

El equipo de investigación no pudo concluir que los humanos y las máquinas usen características diferentes para detectar microcalcificaciones en imágenes de cáncer de mama, pero pudieron demostrar que los dos deben usar características diferentes para detectar lesiones de tejidos blandos. Los análisis de las lesiones de los tejidos blandos y las microcalcificaciones se separaron para ayudar a evitar inflar artificialmente la similitud entre la percepción humana y la de la máquina, que los investigadores señalaron como una falla en otra investigación.

Finalmente, concluyeron que se necesitaba más investigación para mejorar los diagnósticos basados ​​en imágenes médicas.

Share:

Facebook
Twitter
Pinterest
LinkedIn

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media

Most Popular

Get The Latest Updates

Subscribe To Our Weekly Newsletter

No spam, notifications only about new products, updates.

Categories

On Key

Related Posts