Un nuevo modelo de IA chino, DeepSeek-R1-0528, llega en código abierto con un rendimiento que compite con el de los gigantes de pago. ¡Esto promete darle un giro emocionante a la carrera por la inteligencia artificial!
¿Pensabas que el mundo de la inteligencia artificial se reducía a un duelo entre los titanes estadounidenses como OpenAI y Google? Prepárate, porque un nuevo competidor procedente de China podría cambiar las reglas del juego. DeepSeek, una startup surgida de la empresa de análisis cuantitativo High-Flyer Capital Management, acaba de lanzar DeepSeek-R1-0528, una actualización importante de su modelo de IA. Y lo más destacado de esta IA es que es open source: es decir, su código está disponible para todos, de forma gratuita.
29/05/2025 16:35 JérômeRecordarán que a principios de 2025, DeepSeek ya había causado revuelo con la primera versión de su modelo R1, especializado en razonamiento. Pues bien, la "ballena" – algo así como su emblema – ha regresado con una versión potenciada. ¿El objetivo declarado? Ofrecer capacidades de razonamiento complejo en matemáticas, ciencias, negocios y programación que se acercan a lo que proponen modelos de pago como o3 de OpenAI o Gemini 2.5 Pro de Google.
Concretamente, ¿qué es el razonamiento para una IA? Imaginen una IA que no se limita a repetir información recopilada en la web, sino que es capaz de "reflexionar" sobre un problema complejo, casi como un humano (¡o casi!). Es esta capacidad de analizar, deducir y resolver tareas difíciles lo que DeepSeek ha querido potenciar.
GPT-4.1 en ChatGPT: menos palabrería, más eficiencia para los profesionales de la IA.
Uno de los aspectos más emocionantes de DeepSeek-R1-0528 es su naturaleza de código abierto. Es como si un gran chef estrella decidiera compartir la receta de su plato insignia con el mundo entero. El modelo está disponible bajo la licencia MIT, un tipo de contrato que permite su uso comercial y que los desarrolladores lo adapten a sus propias necesidades. Los "pesos" del modelo, es decir, los parámetros que constituyen su inteligencia, son accesibles en la comunidad de intercambio de código de IA Hugging Face. Esta apertura es una bendición para investigadores y empresas que quieren explorar los límites de la IA sin necesariamente pasar por la billetera de los gigantes del sector.
Las mejoras de DeepSeek-R1-0528 no son solo teóricas. Según la información publicada por DeepSeek en su "model card" (una especie de documento de identidad del modelo) en HuggingFace, los resultados están a la altura. Por ejemplo, en la prueba AIME 2025, una competencia de matemáticas, la precisión del modelo saltó del 70% al 87,5%. Para lograrlo, la IA "piensa" más intensamente: utiliza en promedio 23.000 "tokens" (pequeños fragmentos de palabras o código) por pregunta, frente a los 12.000 anteriores. En cuanto a código, en el banco de pruebas LiveCodeBench, la exactitud pasó del 63,5% al 73,3%. Cifras que empiezan a hacer sombra a las soluciones propietarias.
Más allá del rendimiento bruto, DeepSeek ha mimado a los desarrolladores. El modelo ahora soporta salida en formato JSON (un formato de datos muy usado en programación) y llamadas a funciones, lo que simplifica su integración en aplicaciones existentes. También se acabó la necesidad de un "token" especial para activar el modo "reflexión": una pequeña revolución para quienes despliegan el modelo. Y como cereza del pastel, la tasa de "alucinaciones" – esos momentos en que la IA inventa información – habría disminuido, haciendo las respuestas más confiables.
Un desarrollador llamado Haider, conocido en X (antes Twitter) como "@slow_developer", compartió su entusiasmo, explicando que DeepSeek-R1-0528 es "simplemente increíble en codificación". Relata cómo la IA generó código limpio y pruebas funcionales para un desafío de sistema de puntuación de palabras, todo funcionando perfectamente al primer intento. Un desempeño que, según él, solo o3 de OpenAI había logrado igualar antes.
Google Gemini 2.5: Una inmersión en la IA que quiere pensar (mucho) más grande
Consciente de que no todos disponen de servidores ultrapotentes, DeepSeek también pensó en una versión ligera: DeepSeek-R1-0528-Qwen3-8B. Es lo que se llama un modelo "destilado": una versión más compacta, pero que conserva lo esencial de la inteligencia de su hermano mayor. Algo así como un espresso muy concentrado frente a un gran café filtrado. Este modelo de 8 mil millones de parámetros (frente a cientos en los más grandes) obtendría resultados punteros entre los modelos de código abierto en tareas como AIME 2024.
Según el sitio Modal, ejecutar este modelo en "media precisión" (FP16), una técnica para reducir su consumo de memoria, requiere unos 16 GB de memoria GPU. Esto significa que una buena tarjeta gráfica de gamer, como una NVIDIA RTX 3090 o 4090, es suficiente. Para versiones aún más comprimidas ("cuantizadas"), tarjetas con 8 a 12 GB de VRAM, como la RTX 3060, podrían servir. Una forma de democratizar el acceso a IA de vanguardia para investigación académica o aplicaciones industriales a menor escala.
¿Lo sabías?
¡La "reflexión" de una IA también se mide en "tokens"! Por cada pregunta compleja del test AIME 2025, DeepSeek-R1-0528 procesa en promedio 23.000 de estas unidades de texto, casi el doble que su versión anterior. ¡Una verdadera parlanchina digital al servicio de la lógica!
La IA en la oficina: 7 de cada 10 empleados ya la usan en Corea del Sur, ¿y pronto en nuestro país?
La llegada de DeepSeek-R1-0528 es más que una simple actualización técnica. Es una señal fuerte: la innovación en IA no se limita a unos pocos actores adinerados. Al apostar por el código abierto y rendimiento de alto nivel, DeepSeek se posiciona como un competidor serio y accesible. Las reacciones en redes sociales no se equivocan, algunos comentaristas estiman que DeepSeek "apunta al rey" y que esta versión se acerca peligrosamente al rendimiento de o3 y Gemini 2.5 Pro. Algunos incluso especulan que esta actualización podría anunciar la próxima llegada de un modelo "R2", aún más potente.
DeepSeek-R1-0528 ilustra una tendencia fascinante: el auge de modelos de IA de código abierto capaces de competir con soluciones cerradas y de pago. Es una excelente noticia para la innovación, investigación y creación de nuevas aplicaciones, al hacer estas tecnologías de punta más accesibles.
Entonces, ¿la próxima revolución de IA vendrá de un garaje o un laboratorio abierto en lugar de una torre de cristal? El futuro lo dirá, pero una cosa es segura: el partido está lejos de terminar, ¡y eso es bueno para nosotros!
Jerome
Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.