El uso de herramientas de inteligencia artificial (IA) en la medicina se ha convertido en una tendencia cada vez más popular en los últimos años. Los investigadores están trabajando en el desarrollo de herramientas de IA que puedan detectar signos de enfermedades físicas y trastornos psiquiátricos.
Uno de los trastornos más comunes es la depresión, que afecta a aproximadamente el 9,5% de los adultos estadounidenses cada año. Las herramientas de IA que pueden detectar automáticamente signos de depresión pueden ser una valiosa ayuda en la identificación temprana de las personas que necesitan ayuda psicológica. Por lo tanto, podría ayudar a reducir las tasas de suicidio.

El aprendizaje profundo ayuda a detectar la depresión en sus primeras etapas
Investigadores del Instituto de Investigación Avanzada de Jinhua y la Universidad de Ciencia y Tecnología de Harbin han desarrollado recientemente un algoritmo de aprendizaje profundo que puede detectar la depresión a partir del habla de una persona. Este modelo se entrenó para reconocer emociones en el habla humana a través del análisis de diferentes características relevantes. Para entrenar su modelo, los investigadores utilizaron un conjunto de datos conocido como DAIC-WOZ, que contiene grabaciones de audio y expresiones faciales de pacientes diagnosticados con trastorno depresivo y de personas sin depresión.
«Se establece un modelo de algoritmo de decisión conjunta de información múltiple mediante el reconocimiento de emociones», escribieron Han Tian, Zhang Zhu y Xu Jing en su artículo. «El modelo se utiliza para analizar los datos representativos de los sujetos y ayudar en el diagnóstico de si los sujetos tienen depresión».
El futuro de la detección de la depresión
Para extraer características relevantes de las grabaciones de audio, el modelo utiliza OpenSmile. Se trata de un conjunto de herramientas que los informáticos suelen utilizar para extraer características de los clips de audio y clasificarlos. Los investigadores utilizaron OpenSmile para extraer características individuales del habla y combinaciones de características comúnmente encontradas en el habla de pacientes diagnosticados con depresión. Luego, utilizaron el análisis de componentes principales para reducir el conjunto de características extraídas.
Tian, Zhu y Jian probaron su sistema con una serie de evaluaciones para determinar su capacidad para identificar a personas deprimidas y no deprimidas a partir de registros de audio de su voz. Su enfoque logró una impresionante tasa de éxito, detectando la depresión con una precisión del 87% en hombres y del 87,5% en mujeres.
En un futuro cercano, el modelo desarrollado por Tian, Zhu y Jian podría ser una ayuda adicional para los profesionales de la salud en su evaluación de la depresión. Este estudio también puede ser la base para el desarrollo de futuros programas de IA destinados a identificar signos de problemas de salud mental a partir del habla.

Conclusión
El modelo desarrollado por Tian, Zhu y Jian fue evaluado en una serie de pruebas. Este demostró una buena capacidad para detectar personas deprimidas y no deprimidas. Los resultados del estudio muestran que esta herramienta puede ser una valiosa ayuda en el diagnóstico temprano de la depresión. Sin embargo, es importante tener en cuenta que este modelo aún está en una fase temprana de desarrollo. Por lo tanto, será necesario realizar más investigaciones antes de que pueda ser utilizado en un entorno clínico.
Referencias:
Deep learning for Depression Recognition from Speech: https://doi.org/10.1007/s11036-022-02086-3