Un nuovo modello di IA cinese, DeepSeek-R1-0528, arriva in open source con prestazioni che sfiorano quelle dei giganti a pagamento. Di certo, aggiunge un po' di pepe alla corsa all'intelligenza artificiale!
Credevi che il mondo dell'intelligenza artificiale si riducesse a un duello tra i titani americani come OpenAI e Google? Preparati, perché un nuovo sfidante proveniente dalla Cina potrebbe cambiare le carte in tavola. DeepSeek, una startup nata dalla società di analisi quantitativa High-Flyer Capital Management, ha appena lanciato DeepSeek-R1-0528, un aggiornamento importante del suo modello di IA. E la particolarità di questa IA è che è open source: in altre parole, il suo codice è accessibile a tutti, gratuitamente.
29/05/2025 16:48 JérômeRicordate, all'inizio del 2025, DeepSeek aveva già fatto parlare di sé con la prima versione del suo modello R1, specializzato nel ragionamento. Ebbene, la "balena" – un po' il loro emblema – è tornata con una versione potenziata. L'obiettivo dichiarato? Offrire capacità di ragionamento complesso in matematica, scienze, business e programmazione che si avvicinano a quelle dei modelli a pagamento come o3 di OpenAI o Gemini 2.5 Pro di Google.
Concretamente, cos'è il ragionamento per un'IA? Immaginate un'IA che non si limita a ripetere informazioni trovate sul web, ma che è capace di "riflettere" su un problema complesso, un po' come un umano (o quasi!). È questa capacità di analizzare, dedurre e risolvere compiti difficili che DeepSeek ha voluto potenziare.
Manus AI: basta con la fatica di creare presentazioni, lo fa l’IA per te!
Uno degli aspetti più entusiasmanti di DeepSeek-R1-0528 è la sua natura open source. È come se un grande chef stellato decidesse di condividere la ricetta del suo piatto signature con il mondo intero. Il modello è disponibile sotto la licenza MIT, una sorta di contratto che ne autorizza l'uso commerciale e permette agli sviluppatori di adattarlo alle proprie esigenze. I "pesi" del modello, cioè i parametri che costituiscono la sua intelligenza, sono accessibili sulla comunità di condivisione di codice IA Hugging Face. Questa apertura è un'opportunità per ricercatori e aziende che vogliono esplorare le frontiere dell'IA senza dover passare per il portafoglio dei giganti del settore.
I miglioramenti di DeepSeek-R1-0528 non sono solo teorici. Secondo le informazioni pubblicate da DeepSeek sulla sua "model card" (una sorta di carta d'identità del modello) su HuggingFace, le prestazioni ci sono. Ad esempio, nel test AIME 2025, una competizione di matematica, la precisione del modello è salita dal 70% all'87,5%. Per raggiungere questo risultato, l'IA "pensa" più intensamente: utilizza in media 23.000 "token" (piccoli pezzi di parole o codice) per domanda, contro i 12.000 precedenti. Sul fronte codice, nel benchmark LiveCodeBench, l'accuratezza è passata dal 63,5% al 73,3%. Numeri che iniziano a fare ombra alle soluzioni proprietarie.
Oltre alle prestazioni pure, DeepSeek ha coccolato gli sviluppatori. Il modello supporta ora l'output in formato JSON (un formato dati molto usato in programmazione) e la chiamata di funzioni, semplificandone l'integrazione in applicazioni esistenti. Eliminato anche il bisogno di un "token" speciale per attivare la modalità "riflessione": una piccola rivoluzione per chi implementa il modello. E ciliegina sulla torta, il tasso di "allucinazioni" – quei momenti in cui l'IA inventa informazioni – sarebbe diminuito, rendendo le risposte più affidabili.
Uno sviluppatore di nome Haider, noto su X (ex Twitter) con lo pseudonimo "@slow_developer", ha condiviso il suo entusiasmo, spiegando che DeepSeek-R1-0528 è "semplicemente incredibile nel coding". Racconta come l'IA abbia generato codice pulito e test funzionali per una sfida di sistema di valutazione di parole, il tutto funzionante perfettamente al primo colpo. Una performance che, a suo dire, solo o3 di OpenAI era riuscito a eguagliare in precedenza.
Abbonamento IA Ultra di Google: quando l’intelligenza artificiale ti chiede (molti) spiccioli
Consapevole che non tutti dispongono di server superpotenti, DeepSeek ha pensato anche a una versione leggera: DeepSeek-R1-0528-Qwen3-8B. È quello che si chiama un modello "distillato": una versione più compatta, ma che conserva l'essenza dell'intelligenza del fratello maggiore. Un po' come un espresso molto concentrato rispetto a un grande caffè filtro. Questo modello da 8 miliardi di parametri (contro le centinaia dei più grandi) otterrebbe risultati d'eccellenza tra i modelli open source in compiti come AIME 2024.
Secondo il sito Modal, far girare un tale modello in "mezza precisione" (FP16), una tecnica per ridurne l'appetito di memoria, richiede circa 16 GB di memoria GPU. Significa che una buona scheda grafica da gaming, come una NVIDIA RTX 3090 o 4090, basta. Per versioni ancora più compresse ("quantizzate"), schede con 8-12 GB di VRAM, tipo RTX 3060, potrebbero essere sufficienti. Di modo da democratizzare l'accesso a un'IA avanzata per la ricerca accademica o applicazioni industriali su scala ridotta.
Lo sapevate?
La "riflessione" di un'IA si misura anche in "token"! Per ogni domanda complessa del test AIME 2025, DeepSeek-R1-0528 elabora in media 23.000 di queste unità di testo, quasi il doppio della versione precedente. Una vera chiacchierona digitale al servizio della logica!
Limiti dell’IA: e se la corsa alla potenza non bastasse più per renderle davvero intelligenti?
L'arrivo di DeepSeek-R1-0528 è più di un semplice aggiornamento tecnico. È un segnale forte: l'innovazione in IA non si limita a pochi attori ricchissimi. Scommettendo sull'open source e su prestazioni di alto livello, DeepSeek si posiziona come un concorrente serio e accessibile. Le reazioni sui social non sbagliano: alcuni commentatori stimano che DeepSeek "miri al re" e che questa versione si avvicini pericolosamente alle prestazioni di o3 e Gemini 2.5 Pro. Alcuni ipotizzano persino che questo aggiornamento possa annunciare l'arrivo imminente di un modello "R2", ancora più potente.
DeepSeek-R1-0528 illustra una tendenza affascinante: l'ascesa di modelli IA open source capaci di competere con soluzioni chiuse e a pagamento. È un'ottima notizia per l'innovazione, la ricerca e la creazione di nuove applicazioni, rendendo queste tecnologie d'avanguardia più accessibili.
Dunque, la prossima rivoluzione IA verrà da un garage o da un laboratorio aperto piuttosto che da una torre di vetro? Il futuro ce lo dirà, ma una cosa è certa: la partita è lungi dall'essere finita, e questo è un bene per tutti noi!
Jerome
Esperto in sviluppo web, SEO e intelligenza artificiale, la mia esperienza pratica nella creazione di sistemi automatizzati risale al 2009. Oggi, oltre a redigere articoli per decifrare l'attualità e le sfide dell'IA, progetto soluzioni su misura e intervengo come consulente e formatore per un'IA etica, efficiente e responsabile.