“El mundo está en peligro, y no solo por la IA”: el jefe de Seguridad de Anthropic anuncia públicamente su renuncia al cargo
Dimisión
Mrinank Sharma, desbordado, explica los motivos de su cese: “Estamos llegando a un punto donde la capacidad tecnológica crece más rápido que nuestra sabiduría colectiva”
La nueva moda en China es dormir con peluches con IA: “Siento que algo me espera en la cama”

Mrinank Sharma, jefe de Seguridad de Anthropic hasta el 9 de febrero.

¿Se ha rendido Mrinank Sharma, jefe de Seguridad de la empresa de inteligencia artificial Anthropic? Acaba de anunciar que dimite de una de las grandes compañías del segmento, conocida por el chatbot Claude y, especialmente, por el agente Claude Code, que permite crear impecables proyectos de software sin saber nada de programación. Así pues, ¿se ve impotente ante la peligrosa evolución de la IA y de la tecnología en general? No exactamente. Al menos, no por completo. Su renuncia al cargo responde a varios factores, aunque se va satisfecho con todo el trabajo realizado durante su etapa.
En una publicación en redes sociales, Sharma difunde su comunicado personal, en el que argumenta los motivos que le han llevado a cesar. Dos de ellos llaman la atención especialmente, y tienen que ver con un debate más filosófico que técnico, así como con discrepancias internas ante lo que deberían ser las prioridades de la IA de Anthropic.
Carta de dimisión:
Hoy es mi último día en Anthropic. He renunciado.
Aquí está la carta que compartí con mis colegas, donde explico mi decisión.
Queridos colegas,
He decidido dejar Anthropic. Mi último día será el 9 de febrero. Gracias. Hay un montón de cosas que me inspiran y me han inspirado en este lugar: un deseo sincero y un impulso por enfrentarse a situaciones extremadamente difíciles y aspirar a contribuir de forma significativa y con integridad; la voluntad de tomar decisiones difíciles y defender lo que es bueno; una cantidad desproporcionada de brillantez intelectual y determinación; y, por supuesto, la considerable amabilidad que impregna nuestra cultura.
He conseguido aquí lo que quería. Llegué a San Francisco hace dos años, tras terminar mi doctorado, con ganas de contribuir a la seguridad de la IA. Me siento afortunado por haber podido aportar lo que he hecho: entender la adulación de la IA (“sycophancy”, en inglés) y sus causas; desarrollar defensas para reducir los riesgos de bioterrorismo asistido por IA; implementar esas defensas en producción; y escribir uno de los primeros casos de seguridad de IA. Estoy especialmente orgulloso de mis esfuerzos recientes para ayudarnos a vivir nuestros valores mediante mecanismos internos de transparencia; y también de mi proyecto final sobre cómo los asistentes de IA podrían hacernos menos humanos o distorsionar nuestra humanidad. Gracias por su confianza.
No obstante, está claro para mí que ha llegado el momento de seguir adelante. Me encuentro constantemente reflexionando sobre nuestra situación. El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desarrollando en este mismo momento. Parece que nos aproximamos a un umbral en el que nuestra sabiduría debe crecer a la par de nuestra capacidad de afectar al mundo, no sea que enfrentemos las consecuencias.
Además, durante mi tiempo aquí, he visto repetidamente lo difícil que es permitir que nuestros valores realmente rijan nuestras acciones. Lo he visto en mí mismo, en la organización —donde constantemente nos enfrentamos a presiones para dejar de lado aquello que más importa— y también en la sociedad en general.
Al sostener esta situación y escuchar lo mejor que puedo, lo que debo hacer se vuelve claro: quiero contribuir de una manera que se sienta completamente alineada con mi integridad, y que me permita hacer uso de mis peculiaridades. Quiero explorar aquellas preguntas que siento verdaderamente esenciales para mí, las que David Whyte diría que “no tienen derecho a irse”, las que Rilke nos insta a “vivir”. Para mí, eso significa marcharme.
No sé qué vendrá después de esto. Pienso con afecto en la famosa cita zen “no saber es lo más íntimo”. Mi intención es crear espacio para dejar de lado las estructuras que me han sostenido estos últimos años y ver qué puede surgir en su ausencia. Me siento llamado a escribir sobre y comprometerme plenamente con el lugar en el que nos encontramos, y a poner la verdad poética junto a la verdad científica como formas igualmente válidas de conocimiento —ambas con algo esencial que aportar cuando se desarrolla nueva tecnología. Espero explorar una carrera en poesía y dedicarme a la práctica del discurso valiente. También estoy entusiasmado por profundizar en mi práctica de facilitación, coaching, construcción de comunidad y trabajo grupal. Veremos qué sucede.
Gracias, y adiós. He aprendido mucho estando aquí y les deseo lo mejor.
Buena suerte,
Mrinank
Los argumentos, una reflexión personal
Mrinank Sharma siente que ya ha cumplido su objetivo allí, no es un fracaso profesional. Explica que llegó a Anthropic con la intención de trabajar en seguridad de la IA y que siente que ha logrado lo que se propuso:
- Investigar la “adulación” (sycophancy) de los modelos.
- Desarrollar defensas frente a riesgos como el bioterrorismo asistido por IA.
- Implementar medidas de seguridad reales en producción.
- Contribuir a debates internos sobre transparencia y valores.

Lo que sí es evidente es que le preocupa el momento histórico en el que nos encontramos. Habla de que “el mundo está en peligro, no solo por la IA, sino por múltiples crisis interconectadas”, y sugiere que estamos llegando a un punto donde la capacidad tecnológica crece más rápido que nuestra sabiduría colectiva.
Reflexión filosófica aparte, reconoce la dificultad de vivir plenamente los valores. Este es uno de los puntos más delicados. Dice que ha visto “lo difícil que es que nuestros valores realmente guíen nuestras acciones”, tanto en él mismo como en la empresa, y en la sociedad en general. No acusa directamente, pero deja entrever unas ciertas tensiones entre los ideales de seguridad y ética que rigen la compañía.
Por último, reconoce su necesidad de alineación personal, de encontrarse consigo mismo. Afirma que quiere trabajar desde un lugar completamente alineado con su integridad. Quiere explorar preguntas más profundas sobre humanidad, tecnología y sentido, y habla incluso de dedicarse a escribir, a componer poesía, a la facilitación y a sostener un discurso “valiente”.
