La compañía china DeepSeek, que a principios de este año puso en aprietos a su competencia de inteligencia artificial por su asequible método para entrenar su modelo de lenguaje, ha lanzado DeepSeek-Math-V2, un modelo razonador de código abierto que ha alcanzado prestaciones de medalla de oro en las Olimpiada Matemática Internacional (IMO por sus siglas en inglés) del 2025. El hecho de que esta IA se ponga al nivel de otras de vanguardia en razonamiento matemático y de que sea de código abierto no sólo cuestiona el precio de otros modelos, sino que además democratiza el acceso a esta tecnología.
Además de resolver 5 de los 6 problemas de la IMO 2025, con lo que alcanzó un nivel de medalla de oro, DeepSeek-Math-V2 ha obtenido una puntuación de 118 sobre 120 puntos posibles en la competición Putnam 2024 con lo que supera la más alta alcanzada por un ser humano. La compañía china destaca que su modelo “acredita una gran capacidad para demostrar teoremas”, que requiere un tipo de razonamiento complejo.
El modelo matemático de DeepSeek utiliza un tipo de arquitectura de red neuronal que divide una tarea compleja en problemas más sencillos y manejables para asignarlos a unas redes neuronales especializadas. DeepSeek-Math-V2 emplea un sistema en el que un modelo propone una prueba y otro la critica, en lugar de recompensar solo las respuestas finales. El que verifica asigna puntuaciones de confianza a cada uno de los pasos.
Así. El modelo generador refina la lógica débil y garantiza una autodepuración del razonamiento a cada paso. Al abordar de esta forma los razonamientos matemáticos, se pueden reducir alucinaciones al validar pasos intermedios. Según DeepSeek, “aunque aún queda mucho trabajo por hacer, estos resultados sugieren que el razonamiento matemático autoverificable es una dirección de investigación viable que puede ayudar a desarrollar sistemas de IA matemática más capaces”.
DeepSeek saltó a la fama tras lanzar un modelo de código abierto y bajo coste que rivalizaba con los sistemas de IA estadounidenses. El lanzamiento de su razonamiento DeepSeek-R1 suscitó dudas sobre si los modelos abiertos podrían erosionar la ventaja comercial de los productos cerrados, lo que sacudió brevemente la confianza de los inversores en gigantes de la IA como NVIDIA.
A finales de enero pasado, DeepSeek se hizo famosa al lanzar su nuevo modelo R1 y explicar que lo entrenaron a bajo coste y sin necesidad de recurrir a los potentísimos y caros chips de Nvidia, que durante unos días registró una de las peores caídas bursátiles de la historia, de la que ya se ha recuperado. Esta compañía china demostró que es posible un enfoque de código abierto al que puede acceder todo el mundo sin grandes costes.
Hace quince días, Google DeepMind presentó su modelo AlphaProof, que resolvió tres de los cinco problemas no geométricos de la IMO 2024 para estudiantes de secundaria. El método empleado por esta IA genera variantes del problema para adaptar el aprendizaje a cada caso concreto.


