Skip to main content

La inteligencia artificial y depresión parecen estar más relacionadas de lo que se pensaba. Un nuevo estudio sugiere que los grandes modelos de lenguaje, como ChatGPT, pueden  ayudar a identificar indicios de depresión y riesgo de suicidio analizando lo que las personas escriben sobre sí mismas. A través de un test psicológico que se basa en completar frases, se descubrió que herramientas como GPT-4o o Gemini pueden ofrecer un apoyo valioso —aunque no definitivo— en la detección precoz de trastornos mentales.

¿Qué reveló este estudio sobre inteligencia artificial y depresión?

Un grupo de expertos en Corea del Sur trabajó con más de 1,000 personas que completaron frases como “Soy una persona que…” para entender cómo expresan sus emociones. Usaron modelos como GPT-3.5 y Gemini para ver si podían detectar depresión o riesgo suicida solo leyendo esas respuestas y pudieron comprobar que algunos modelos llegaron a tener una precisión del 84% en detección.

El truco está en que cuando las personas hablaban honestamente sobre su “yo interior”, los modelos podían identificar mucho mejor los signos. Por el contrario, si las respuestas eran vagas o demasiado positivas, la IA fallaba, algo lógico porque nadie puede adivinar si alguien está ocultando su verdad.

¿Cómo hacen estos modelos para detectar señales de depresión?

La clave está en que la IA traduce el lenguaje en números, patrones matemáticos que pueden analizar mejor que nosotros ciertos matices. Por ejemplo, usan algo llamado embeddings, que convierten frases en vectores que la máquina puede entender y comparar.

El psiquiatra Gerard Anmella del Hospital Clínic de Barcelona explica en declaraciones al Science Media Center de España que “desde hace unos 15 años se aplican técnicas de procesamiento del lenguaje natural en salud mental para intentar encontrar marcadores lingüísticos que permitan detectar problemas psicológicos y ayudar a los profesionales a identificarlos y tratarlos. Este estudio sigue esa línea, aplicando una tecnología nueva de análisis del lenguaje, lo que nos aporta datos diferentes y complementarios. Es un paso más en el camino hacia una salud mental personalizada, democratizada y basada en marcadores objetivos.”

Esto sugiere que la inteligencia artificial podría ser un gran apoyo para detectar problemas antes de que empeoren, especialmente donde no hay suficientes especialistas.

Ventajas y desafíos de la inteligencia artificial y depresión

Ventajas:

  • Respuestas rápidas y no invasivas
  • Puede ayudar a los profesionales en momentos de mucha demanda
  • Se puede adaptar a diferentes idiomas y culturas

Desafíos:

  • No sustituye a un profesional de salud mental
  • Depende de la sinceridad del paciente
  • Es crucial cuidar la privacidad de los datos

El doctor Alberto Ortiz Lobo del Hospital Universitario La Paz nos advierte que “la IA puede ayudar a detectar riesgos, pero tratar a una persona es algo que va más allá de la tecnología”.

¿Qué nos espera en el futuro con inteligencia artificial y depresión?

Aunque aún falta mucho para que la IA sea parte del día a día en salud mental, este estudio abre puertas a una atención más personalizada y accesible para todos. Eso sí, siempre con ética y transparencia, cuidando que estas herramientas no violen la privacidad ni reemplacen el contacto humano, que es irremplazable.

Preguntas frecuentes

¿Puede la IA diagnosticar depresión?
No, solo detecta patrones en el lenguaje que pueden indicar depresión, pero el diagnóstico es cosa de profesionales.

¿Qué tan exactos son estos modelos?
En estudios, pueden detectar hasta un 84% de los casos, pero siempre dependen de la calidad y sinceridad del texto.

¿Qué es el test de frases incompletas?
Una prueba donde las personas terminan oraciones para expresar sus pensamientos y emociones.

¿Funciona para adolescentes?
Puede funcionar, pero se necesita más investigación para adaptarlo bien a diferentes edades.

¿Qué pasa si alguien no es sincero en sus respuestas?
La IA puede fallar igual que un terapeuta; la honestidad sigue siendo clave.

¿Es seguro usar IA en salud mental?
Es seguro si se manejan bien los datos y la privacidad, pero siempre debe ser un apoyo, no un juez final.

Por Karla Islas Pieck
© 2025 Hispanic Information and Telecommunications Network, Inc (HITN). All rights reserved.
Imagen: ©Shutterstock / elenabsl

Comentarios de nuestra comunidad
Vida y Salud
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.