Si esta mañana has ido a abrir tu WhatsApp como siempre haces y te has encontrado que no tienes acceso a tus chats ni a ningún elemento de tu cuenta, es probable que te hayan implicado en una pesadilla de la que te va a costar salir.
Meta ha borrado 6,8 millones de cuentas presuntamente vinculadas a estafadores desde principios de 2025, hecho que supone uno de los movimientos más agresivos de la compañía en su lucha contra las malas prácticas de personas con ánimo de lucrarse a partir de las debilidades emocionales de otros.
Adiós Brad Pitt
Lucha contra estafas sentimentales
La operación antiestafadores ha apuntado directamente a millones de cuentas que se concentraban especialmente en países del sureste asiático, que explotaban indiscriminadamente las capacidades de WhatsApp para vaciarle los saldos bancarios a otras personas vulnerables. La técnica contra la que han luchado es la conocida como pig butchering, que literalmente sería matanza de cerdos, pero, por respeto a las víctimas, Interpol recomienda llamarle “estafa sentimental”.
En otras palabras, sería la típica estrategia en la que una persona inicia una conversación con alguien desconocido hasta derivar en una relación romántica por chat. Una vez el estafador se hace con la confianza de la otra persona, la persuade para que haga inversiones falsas hasta arruinarse. El caso del estafador que se hizo pasar por Brad Pitt y le vació las cuentas a una mujer sería el ejemplo más conocido y extremo. De todos modos, normalmente se trata de amantes anónimos que dan sensación de verosimilitud absoluta.

La víctima tarda en darse cuenta y, una vez lo confirma, ya es tarde.
Detrás de las organizaciones que se dedican a estas prácticas se halla el concepto de la esclavitud moderna. Suelen recurrir al trabajo forzoso tras reclutar a personas con falsas promesas y obligarlas a cometer estafas.
Este tipo de redes criminales, que comenzaron a prosperar durante la pandemia, han extraído hasta la fecha decenas de miles de millones de dólares de víctimas en todo el mundo. Estos grupos de delincuentes se concentran en países como Camboya, Myanmar o Tailandia.
IA vs IA
La ayuda de OpenAI
Muchas de las intervenciones se han podido llevar a cabo antes de que se produzcan los engaños, gracias a modelos de lenguaje predictivos que han ayudado a detectar patrones comunes de las prácticas ilegales. En esta ocasión, WhatsApp ha colaborado con OpenAI para desmantelar un grupo criminal camboyano que utiliza ChatGPT para generar mensajes que establecen el primer contacto con las víctimas.
El esquema ha sido sofisticado. Las víctimas recibían mensajes de texto creados por IA con enlaces de WhatsApp, tras lo cual eran transferidos a Telegram y se les asignaban tareas como dar “me gusta” a videos de TikTok a cambio de dinero. La promesa de ganancias fáciles era, naturalmente, una trampa.
Se les asignaban tareas como dar “me gusta” a videos de TikTok a cambio de dinero. La promesa de ganancias fáciles era, naturalmente, una trampa
Los estafadores compartían capturas de pantalla de ganancias falsas para generar confianza antes de solicitar depósitos de criptomonedas para tareas de “siguiente nivel”.
Las estafas suelen seguir un patrón predecible: contacto inicial a través de mensajes de texto o aplicaciones de citas, migración a plataformas de mensajería privada y finalización en servicios de pago o sitios de criptomonedas. Unos rasgos comunes que la IA ha sabido identificar en sus primeras etapas. Sin embargo, queda la duda de la privacidad, que nos lleva a planearnos cómo Meta o sus algoritmos han sido capaces de interceptar tales mensajes, teniendo en cuenta que, al menos en WhatsApp, las conversaciones son cifradas de punto a punto entre los interlocutores y, teóricamente, WhatsApp no tiene acceso a su contenido.