Una mañana, mientras miraba sus redes sociales, la ingeniera informática Ana Freire se encontró con una publicación en una red social de una mujer que anunciaba su intención de suicidarse. Al mirar la fecha de la publicación, se dio cuenta de que era antigua; en los comentarios, las personas del círculo de esta persona explicaban que había acabado quitándose la vida.
“Quizás fue mi vocación de investigadora lo que hizo que, en lugar de cerrar esta pestaña y olvidarme de lo que había visto, quisiese saber más sobre por qué esta mujer había llegado a tomar esa decisión fatal”, cuenta Freire. Así, la ingeniera empezó a leer las publicaciones anteriores de esta usuaria. Y lo que encontró fueron signos: publicaciones llenas de tristeza y desesperanza que, en su momento, nadie fue capaz de detectar como lo que eran: súplicas silenciosas de ayuda.
“Era una persona que arrastraba una depresión desde hacía tiempo, a la que no le gustaba su cuerpo… Había dejado pistas.” Pero esas pistas, en ocasiones, pasan desapercibidas, incluso por el entorno cercano de la víctima. “Pensé que quizás estas señales eran difíciles de reconocer por humanos, pero uno de los potenciales de la IA es reconocer patrones en grandes cantidades de datos. Como investigadora en inteligencia artificial, sentí la responsabilidad de actuar.”
De este acontecimiento acabó naciendo Proyecto STOP: un sistema que utiliza técnicas de procesamiento del lenguaje para detectar indicadores de riesgo suicida en redes sociales. Una vez se detecta un usuario con posible riesgo, el programa busca ofrecer ayuda y redirigir a la persona a canales de apoyo.

Ana Freire, ingeniera detrás de una IA para prevenir el suicidio.
Desde el advenimiento de herramientas como ChatGPT, y desde que la inteligencia artificial forma parte de la conversación, ha habido amplias preocupaciones sobre el impacto que su uso podría tener en la salud mental de las personas y, especialmente, en la toma de decisiones y seguridad de personas en situación de riesgo.
Las preocupaciones no son infundadas: un reciente estudio de la Universidad de Stanford advertía, hace unos meses, que acudir a un “chatbot” en medio de una crisis no sólo puede llegar a resultar inútil e impreciso, sino directamente pernicioso para personas con trastornos psicóticos o crisis de pensamientos suicidas.
El sistema analiza publicaciones públicas en redes sociales, usando algoritmos de IA entrenados para reconocer señales lingüísticas asociadas al riesgo suicida
El año pasado, una abogada estadounidense denunciaba a la empresa Character.ai por considerarla cómplice del suicidio de su hijo, que se quitó la vida después de haber establecido una relación emocional con un chatbot. Hace unos meses, se viralizaba el caso de unos estudiantes universitarios que habían recibido una respuesta de Gemini, la IA de Google, instándoles a quitarse la vida con unas muy crueles palabras.
Pero Proyecto STOP quiere cambiar la tendencia, y demostrar que la IA puede servir, también, para apoyar a personas que se encuentran en situaciones complicadas. “El sistema analiza publicaciones públicas en redes sociales, usando algoritmos de IA entrenados para reconocer señales lingüísticas asociadas al riesgo suicida: expresiones de desesperanza, falta de sentido vital, autolesiones…”.
La IA está entrenada utilizando datos previamente anotados por psicólogos clínicos. A la hora de valorar el posible riesgo de cada usuario, el sistema tiene en cuenta factores como el cambio en la frecuencia de publicación, el tono emocional de los mensajes o el nivel de interacciones con otros usuarios. “No se trata de diagnosticar, sino extraer un patrón demográfico y de comportamiento común a través de las redes sociales”.
Proyecto STOP detecta qué usuarios podrían estar en riesgo de mostrar conductas suicidas y los hace objetivo de campañas a través de redes sociales que les redirigen a teléfonos o chats de ayuda especializados en este tipo de situaciones y que, sobre todo, son gratuitos. Utilizando las funcionalidades de segmentación de público de las redes sociales, estas campañas pueden aumentar su efectividad y llegar a exactamente quien más lo necesita.
Quienes piensan en suicidarse suelen comentar temas graves como abuso de sustancias (drogas, alcohol), abuso sexual en la infancia, autolesiones…
La primera campaña ejecutada por Proyecto STOP redirigía a los usuarios al teléfono de prevención del suicidio de la Fundació Ajuda y Esperança, y este aumentó un 60% el número de llamadas recibidas durante el tiempo en el que la acción estuvo en activo.
En las siguientes campañas se utilizaron líneas de ayuda vía chat o WhatsApp, como el del Chat de Apoyo Emocional para Jóvenes, una herramienta gratuita y hospedada vía WhatsApp impulsada por el Ayuntamiento de Barcelona. El número de conversaciones de personas buscando ayuda se llegó a multiplicar hasta por 10. Las redes sociales más utilizadas por el proyecto STOP han sido, hasta ahora, Instagram o Facebook, pero Freire nos explica que este año empezarán a expandirse también por TikTok.

La desconexión digital se ha convertido en una necesidad.
Proyecto STOP se centra en tres tipos de conductas en redes sociales: las relacionadas con ideación suidida, depresión y trastornos de la conducta alimentaria, como anorexia o bulimia. “Quienes piensan en suicidarse suelen comentar temas graves como abuso de sustancias (drogas, alcohol), abuso sexual en la infancia, autolesiones… Los que padecen depresión hablan mucho de problemas de pareja o económicos. Y, en el caso de los trastornos de la conducta alimentaria, mencionan dietas muy estrictas, tablas de ejercicios o consumo de laxantes.” Estos son los signos que detecta la IA, y que alertan de que la persona podría necesitar apoyo.
En el año 2024 se suicidaron 3.846 personas en España, según datos del Instituto Nacional de Estadística; fueron el segundo motivo más común de fallecimiento por causas externas (el primero, en el caso de los hombres), solo superadas por las caídas accidentales. La cifra supone una mejoría respecto a los anteriores, con 4.227 víctimas en el año 2022 y 4.116 en 2023, pero siguen siendo mayores que las estadísticas prepandemia.
Incluso aunque, en las estadísticas, los hombres tienden a ser víctimas de suicidio con mayor frecuencia que las mujeres, el perfil más habitual detectado por Proyecto STOP es una mujer joven, de menos de 29 años. En casos concretos, como el de la anorexia, hay un 60% que son mujeres menores de 19 años.
Freire señala que los posts relacionados con trastornos alimenticios en redes sociales son uno de los signos de alarma más frecuentes en el proyecto STOP. “Es un problema con un gran desbalance en cuanto a género. Alrededor del 84% de los usuarios con trastornos alimenticios en redes son mujeres, según nuestros estudios.”
Las mujeres, especialmente en la adolescencia, están más expuestas a ideales de belleza poco realistas y reciben más presión social sobre su cuerpo
Los motivos son variados. “Las mujeres, especialmente en la adolescencia, están más expuestas a ideales de belleza poco realistas y reciben más presión social sobre su cuerpo”, cuenta la ingeniera. “A esto se suma una mayor tendencia a compartir emociones en espacios públicos, lo que, aunque puede facilitar el acceso a ayuda, también las expone a dinámicas de comparación, juicio o incluso refuerzo negativo. Las redes sociales, en este contexto, actúan como un espejo distorsionado que puede agravar el malestar psicológico.”
Pero incluso aunque Freire, junto al equipo de investigadores de la Universidad Pompeu Fabra de Barcelona y otras universidades internacionales, haya luchado por mantener a flote el proyecto desde el año 2017, ha habido algunas dificultades que solventar.

Ana Freire, ingeniera detrás de una IA para prevenir el suicidio.
El principal ha tenido que ver con cómo mantener la privacidad de los usuarios mientras se analiza la información personal que publican en redes sociales. “Desde el inicio sabíamos que trabajar con datos sensibles implicaba retos importantes en cuanto a privacidad, consentimiento y uso responsable de la información. Fue esencial colaborar con expertos en psicología y derecho para construir un marco de actuación sólido”, explica. De este modo, hasta cuando se detecta a un posible usuario de riesgo, las intervenciones son anónimas: las publicaciones de ayuda se colocan en redes sociales de manera intrusiva y no se almacenan sus datos.
A pesar de esto, sigue habiendo retos al respecto de cómo manejar los datos de los usuarios y cómo entrenar a la Inteligencia Artificial para reconocer estos patrones. Ante esto, Freire explica que podríamos encontrar una posible solución en la “donación digital”:
“Básicamente, consistiría en permitir que las personas puedan ceder voluntariamente sus datos digitales, como los de redes sociales, para contribuir al bien común, del mismo modo que hoy pueden donar órganos o datos médicos. Esta idea, aplicada al contexto digital, permitiría entrenar mejores sistemas de detección precoz de conductas de riesgo, como el suicidio, siempre con consentimiento informado, anonimización y supervisión ética.”
El mayor escollo, no obstante, es el de la falta de concienciación al respecto de la necesidad de estructuras de prevención de suicidio. No solo en las personas, sino también en las instituciones: “La ley debería reconocer la prevención del suicidio como un interés legítimo para el tratamiento automatizado de ciertos datos sensibles. Así, se podrían integrar recursos de ayuda y mecanismos de actuación rápida ante situaciones críticas.”