“Su realismo puede resultar tan persuasivo como traicionero”: 'griefbots', el macabro negocio de los robots que imitan a tus seres queridos fallecidos
Duelo digital
En plena era de la huella digital, empresas tecnológicas empiezan a ofrecer la ilusión de revivir a quienes ya no están. Los llaman griefbots: avatares entrenados con datos de fallecidos que imitan su voz, su lenguaje y hasta su carácter
“Creo en Dios, pero hasta ahora siempre me había dado vergüenza decirlo”: luces y sombras del ‘cristianismo digital’, que acerca la religión a la Generación Z

'Griefbots', el macabro negocio de los robots que imitan a tus seres queridos fallecidos.

“Porque morir es natural, le temo más a la vida”, cantaba Enrique Morente. Y basta con ver algún capítulo de Black Mirror para seguir temiéndola. En uno de sus capítulos más siniestros, la serie propone un futuro cercano en el que la gente tiene la opción de comprar una simulación de sus seres queridos una vez han fallecido, generada gracias a la huella digital que los muertos dejan tras de sí. Así, los datos almacenados en redes sociales permitirían recrear, a partir de fotos, vídeos y publicaciones, un clon sintético capaz de emular tanto el físico como el carácter.
Sin duda cabalgamos hacia ese mundo. Nuestra inteligencia artificial actual todavía está lejos de residir en un cuerpo sintético como el que propone la serie, pero ya ha empezado a prometernos algo que hasta ahora solo pertenecía a la literatura y la ciencia ficción: la posibilidad de seguir hablando con los muertos. Los llamados griefbots o deathbots, programas capaces de imitar la voz, el lenguaje y hasta la personalidad de personas fallecidas, están generando un nuevo ecosistema tecnológico que reabre preguntas éticas, económicas y emocionales que apenas estamos empezando a formular.
Ahora bien, quien crea que va a encontrar en estos bots una réplica fiel de un ser querido fallecido se va a llevar una gran decepción. Un griefbot no es más que un modelo de IA entrenado con los datos personales de alguien: mensajes, audios, publicaciones, vídeos, conversaciones y cualquier otro rastro digital. Un algoritmo que ni siente ni padece que, a partir de esa información, genera un avatar capaz de mantener diálogos con un estilo que recuerda al individuo fallecido.
Cualquiera en su sano juicio, tras probar esta tecnología, se dará cuenta de que, por mucha alta ingeniería algorítmica que haya detrás, estos avatares no pasan de ser un vano intento de captar la esencia humana. Pero claro, ahí está el problema: quien acaba de perder ya no a su abuelo de 90 años fallecido por causas naturales, sino a su joven pareja, al amor de su vida, en un trágico accidente, no estará durante un tiempo considerable en su mejor momento psicológico.
Lo que en principio fue un ejercicio de consuelo se convirtió en dependencia y, finalmente, en desengaño
Entonces, ante el trauma y la necesidad de consuelo, un chatbot que te responde como lo hacía alguien central en tu vida puede hacer que la distancia entre simulación y presencia emocional se desvanezca de manera inquietante. No es de extrañar, por tanto, que este mercado de la eternidad ya cuente con un buen número de empresas que venden sus griefbots, cada una con un enfoque distinto pero todas con un mismo horizonte: transformar la memoria en un producto que se almacena, se administra y, en muchos casos, se paga por suscripción.
Replika, por ejemplo, se vende como “la primera IA de compañía del mundo. Disponible 24/7, siempre listo para hablar, escuchar y hacer cualquier cosa que desees (…) difuminando las líneas entre la ciencia ficción y la compañía real con inteligencia artificial”. Nació como un chatbot de compañía, pero muchos usuarios lo emplean ya para simular conversaciones con fallecidos.

No obstante, como confiesa a Guyana Guardian Amanda P., de 37 años, “su realismo puede resultar tan persuasivo como traicionero”. Amanda mantenía una relación con su novio Daniel desde los 16 años, el cual falleció hace 10 meses. “Lo que en principio fue un ejercicio de consuelo se convirtió en dependencia y, finalmente, en desengaño. Ahora sé que nada podrá devolverme mis conversaciones con Daniel”.
Cómo no, atraídas por el olor a un dinero bañado en lágrimas, las grandes marcas también se han interesado por este mercado. En 2021, Microsoft patentó un sistema para generar chatbots de personas basadas en su huella digital. Nunca lo lanzó, pero la compañía se preocupó de marcar con su mera existencia el terreno.
Del mismo modo, Samsung lanzó su polémico prototipo, apodado en prensa como “Heaven”, con una exhibición de la recreación en realidad virtual de una niña fallecida con la que su madre podía interactuar. Tampoco llegó a comercializarse, pero dejó claro hacia dónde podría avanzar la industria si nadie interviene.
En este sentido, HereAfter AI adopta un enfoque más documental: entrevistas grabadas en vida que después se transforman en un avatar que responde a preguntas concretas, sin improvisar. Un sistema relativamente prudente dentro de un campo que rara vez lo es. También en esta línea, más alejada de la moral de buitre corporativista, se sitúa StoryFile, la memoria audiovisual que graba cientos de respuestas en vídeo para simplemente construir un archivo interactivo.
Nada me devolverá a la melómana de mi hermana, pero los comentarios que esta IA genera sobre la nueva música que ella nunca escuchará se acercarían bastante a su opinión
Volviendo a los usuarios, quienes utilizan estos griefbots oscilan entre la paz y la perturbación. Algunos, como Alex Ferrier, de 43 años, nos cuentan que encuentran alivio real en la fantasmagoría que le proporciona StoryFile: “Nada me devolverá a la melómana de mi hermana, pero creo que los comentarios que esta IA genera sobre la nueva música que ella nunca escuchará se acercarían bastante a su opinión, y eso me reconforta”. En cambio, otros como Amanda se han visto sumergidos en un vínculo prolongado que interrumpe su proceso natural de duelo.
En cualquier caso, lo que está claro es que estas ilusiones conversacionales pueden generar confusiones afectivas difíciles de gestionar sin apoyo profesional. La psicóloga Alba Villagarcía no tiene demasiadas dudas sobre el riesgo emocional que conllevan: “Podrían ser peligrosas en cuanto a salud mental se refiere, ya que no permiten aceptar la realidad de la pérdida ni adaptarnos a esa nueva situación sin la persona que falleció”, advierte.

La experta recuerda que la propia palabra “duelo” deriva de “dolor”, y subraya algo que estos servicios tienden a obviar: “Para transitar esta herida, se requiere que nos permitamos sentirla y conectar con el dolor de la ausencia. Utilizar estas IAs podría funcionar como una anestesia al dolor inevitable de la pérdida”.
El griefbot actúa como analgésico emocional. Y, como con cualquier pastilla, el problema llega cuando deja de ser algo puntual y se convierte en costumbre, en dependencia. Villagarcía matiza que el riesgo depende mucho del vínculo y del uso que se haga de la herramienta: “Podría ser algo más que un mero ejercicio de nostalgia y llegar a matices peligrosos. Si la IA se utiliza puntualmente, por ejemplo, para expresar un asunto pendiente, puede incluso ayudar a superar la pérdida. Pero se torna peligrosa si esa interacción es frecuente y el usuario la utiliza con la clara intención de hacer 'volver', de alguna manera, al fallecido”.
Ese “traer de vuelta” es, en realidad, el núcleo del problema. Volviendo a nuestros ejemplos iniciales, si hablamos de un abuelo con el que había un vínculo cariñoso pero no central, quizá estemos ante un uso simbólico, más cercano a escribirle una carta post mortem. Pero en el caso de una pareja joven fallecida en un accidente, el escenario cambia.
Villagarcía lo explica así: “En una pérdida violenta, rápida, sin tiempo para prepararnos, el trauma suele ser mucho mayor. Una pareja es uno de los pilares principales de sostén emocional, alguien con quien se comparte tiempo, cercanía física, proyectos futuros… Es lógico que haya una mayor necesidad de hacerle volver. Pero aferrarse a la IA supone luchar contra la realidad, y eso puede ser devastador”.
Aferrarse a la IA supone luchar contra la realidad, y eso puede ser devastador
Además, los griefbots, en ese sentido, podrían llegar a aislar a la persona doliente en una burbuja artificial: “Podría aislarla de generar nuevas conexiones reales”, alerta la psicóloga. De este modo, el precio de mantener vivo un vínculo digital consistiría en congelar los vínculos posibles con los vivos.
La también psicóloga y experta en duelo de la consulta Evolet, Marisol Montejano, recuerda perfectamente el vídeo del experimento de Samsung que comentábamos: “Decían 'mirad la cara de felicidad de esa mujer'. Y no era cara de felicidad, era cara de angustia y retraumatizción. No tenía ninguna pinta de estar pasándolo bien”.
Para Montejano, ese caso ayuda a entender por qué estas tecnologías chocan de frente con la lógica del duelo: “En una de las tareas del duelo está aceptar que esa persona ha muerto. Si tú la estás viendo, la estás oyendo y te contesta, no estás aceptando su fallecimiento.”.
Según la especialista, en terapia se utilizan, a veces, recursos simbólicos para facilitar despedidas que no pudieron producirse: cartas, roleplaying, rituales guiados… Pero Montejano marca la diferencia: “En esas técnicas no se simula su voz ni se pretende que esté viva. Es alguien que recoge tu mensaje. El objetivo es pasar página, no prolongar la ilusión de presencia”.
Por eso ve con tanta preocupación la combinación de IA, voz clonada y realidad virtual: “Ya hay pacientes que mandan mensajes por WhatsApp al número de un fallecido. En un primer momento, puede entenderse como parte del proceso, pero hay que romper con eso. Hemos visto casos en los que la distorsión de la realidad es tan grande que llega a haber brotes psicóticos. Estos chatbots son un polvorín para personas que tienden a estas conductas”.
Si el ser humano hiciera un uso debido de las nuevas tecnologías, podríamos hablar. Pero a las pruebas nos remitimos: tendemos a las peores aplicaciones
Además. Montejano apunta que el problema no es solo técnico, sino cultural: “Si el ser humano hiciera un uso debido de las nuevas tecnologías, podríamos hablar. Pero a las pruebas nos remitimos: tendemos a las peores aplicaciones”.
La psicóloga admite un posible uso muy acotado: un cierre puntual, guiado por un profesional, en casos extremos (como los duelos sin despedida durante la pandemia). Pero pone un límite claro: “No ofrecer nunca esta herramienta como una vía para resarcirse en solitario, porque generará una dependencia emocional con algo que no existe”.
Hay que incidir en que las empresas que ofrecen griefbots no venden inmortalidad, sino acceso. Pagos mensuales para mantener vivo al avatar, tarifas para ampliar su memoria, extras para generar la voz del fallecido o convertirlo en un personaje 3D. El duelo convertido en servicio al desesperado.

No obstante, no es el único negocio que crece a raíz de las consecuencias de la huella en internet. También hay una economía legal, silenciosa pero, en este caso, necesaria alrededor de esto: la limpieza digital.
El abogado Cristian Pozo explica que su despacho ha visto aumentar exponencialmente los demandantes al respecto: “Cada vez más gente quiere suprimir su huella digital o la de un familiar fallecido. Y no es solo buscar en Google: hay que localizar datos en redes abiertas y, lo más complicado, en plataformas privadas como Facebook o Instagram”.
El fenómeno se extiende incluso a la herencia de perfiles digitales: “Si tienes una cuenta con 400.000 seguidores, eso es un bien. Igual que un libro, una web o una composición musical. Hay influencers que ya están testando los derechos de explotación de su contenido para que lo gestione otra parte de la familia”, asegura Pozo.
Si una persona no ha hecho testamento digital, no se le presupone el derecho al olvido
La muerte digital, en muchos sentidos, es ya también una cuestión de propiedad intelectual. Pozo advierte de otra dimensión del problema: la gestión de la huella digital del fallecido, algo que pocas familias tienen previsto: “Lo primero que habría que hacer siempre es un informe completo de huella digital. Hay que rastrear todo lo que esa persona ha dejado en internet: fotos, perfiles, foros, redes sociales, menciones. Crear evidencia, asegurarla y después solicitar la retirada de contenidos uno por uno. Es un trabajo tedioso que requiere meses”.
Porque, a diferencia de lo que muchos creen, el derecho al olvido no se activa automáticamente cuando alguien muere: “Si una persona no ha hecho testamento digital, no se le presupone el derecho al olvido. Siempre lo tiene que gestionar la familia. Y ahí empieza el conflicto: algunos quieren borrar todo; otros quieren preservar las cuentas como memorial”, señala.
Desde el punto de vista legal, ni siquiera existe una categoría clara para describir lo que está ocurriendo. El caso concreto de la creación de avatares se mueve en un “vacío conceptual”: “Al final no dejas de hablar con algo ficticio; no estás conversando con esa persona, sino con una inteligencia artificial entrenada con sus datos”, resume Pozo.
Eso no significa que sea ilegal, pues el profesional añade que “si los familiares directos quieren entrenar un bot con textos, audios o fotos, no veo una restricción puramente legal. Otra cosa es el impacto emocional que eso genere”.
No existe una restricción puramente legal. Otra cosa es el impacto emocional que eso genere
La mayoría de países carece de regulación específica. Ni el RGPD ni la Ley de Servicios Digitales contemplan aún estos escenarios, aunque sirven de base para solicitudes de supresión o rectificación. A esto se suma que los griefbots pueden crear contenidos nuevos en nombre y sin el consentimiento del fallecido, no solo repetir los antiguos.
Valga aquí, por tanto, cierta insistencia: los griefbots no resucitan a nadie. Sin embargo, reconfiguran la forma en la que experimentamos la ausencia. Transforman el duelo en un espacio interactivo donde el silencio ya no es absoluto, sino algo que puede llenarse con frases generadas por una red neuronal, más o menos sofisticada, pero sin ese elemento que históricamente hemos convenido en llamar alma.
Cabe destacar que esto responde a una necesidad ancestral. A lo largo de la historia, hemos buscado siempre alguna manera forzada de recuperar a nuestros seres queridos, desestimando quizá la forma más eficaz de vencer a la muerte, algo sencillo, llano, natural y al alcance de todos llamado recuerdo.
En latín, cor, cordis significa corazón. El prefijo re- se utiliza como indicador de repetición. Así, diría Eduardo Galeano, recordare viene a ser, etimológicamente, “volver a pasar por el corazón”. Frente a la promesa algorítmica de hablar con los muertos, deberíamos asumir no hemos inventado nada más solemne, más ritual, más bello y más reconfortante que el recuerdo.






