En ny kinesisk AI-model, DeepSeek-R1-0528, er nu tilgængelig som open source med præstationer, der ligger lige i hælene på de betalte giganter. Det sætter virkelig gang i kapløbet om kunstig intelligens!
Troede du, at verden af kunstig intelligens kun handlede om en kamp mellem amerikanske titaner som OpenAI og Google? Hold fast, for en udfordrer fra Kina kunne godt ændre spillet. DeepSeek, en startup fra den kvantitative analysevirksomhed High-Flyer Capital Management, har netop lanceret DeepSeek-R1-0528, en større opdatering af deres AI-model. Og det særlige ved denne AI er, at den er open source: med andre ord, dens kode er tilgængelig for alle, helt gratis.
29/05/2025 17:33 JérômeHusker du, i starten af 2025, skabte DeepSeek allerede bølger med den første version af deres R1-model, der var specialiseret i ræsonnement. Nå, men "hvalen" – det er lidt deres symbol – er tilbage med en supercharged version. Det erklærede mål? At tilbyde komplekse ræsonnementsevner inden for matematik, videnskab, forretning og programmering, der kommer tæt på, hvad betalingsmodeller som OpenAI's o3 eller Google's Gemini 2.5 Pro tilbyder.
Hvad betyder ræsonnement for en AI? Forestil dig en AI, der ikke bare gentager informationer fra nettet, men som er i stand til at "tænke" over et komplekst problem, næsten som et menneske (eller næsten!). Det er denne evne til at analysere, deducere og løse vanskelige opgaver, som DeepSeek har ønsket at forbedre.
En af de mest spændende aspekter ved DeepSeek-R1-0528 er dens open source-natur. Det er lidt som om en stor stjernekok beslutter at dele sin signaturretts opskrift med hele verden. Modellen er tilgængelig under MIT-licensen, en slags kontrakt, der tillader kommerciel brug og giver udviklere mulighed for at tilpasse den til deres egne behov. Modellens "vægte", altså de parametre, der udgør dens intelligens, er tilgængelige på AI-fællesskabet Hugging Face. Denne åbenhed er en gave for forskere og virksomheder, der ønsker at udforske grænserne for AI uden nødvendigvis at skulle betale til de store spillere i branchen.
Forbedringerne ved DeepSeek-R1-0528 er ikke kun teoretiske. Ifølge oplysninger offentliggjort af DeepSeek på deres "model card" (en slags identitetskort for modellen) på HuggingFace, leverer modellen gode resultater. For eksempel, på AIME 2025-testen, en matematikkonkurrence, er modellens præcision steget fra 70 % til 87,5 %. For at opnå dette "tænker" AI'en mere intensivt: den bruger i gennemsnit 23.000 "tokens" (små stykker af ord eller kode) pr. spørgsmål, mod 12.000 før. På kodningsfronten, på LiveCodeBench-testen, er nøjagtigheden steget fra 63,5 % til 73,3 %. Tal, der begynder at udfordre de proprietære løsninger.
Ud over rå ydeevne har DeepSeek også forkælet udviklerne. Modellen understøtter nu output i JSON-format (et meget brugt dataformat i programmering) og funktionskald, hvilket gør det nemmere at integrere den i eksisterende applikationer. Der er heller ikke længere behov for en speciel "token" for at aktivere "tænkningstilstand": en lille revolution for dem, der implementerer modellen. Og som det bedste af det hele, er "hallucinationsraten" – de tidspunkter, hvor AI'en opfinder informationer – formindsket, hvilket gør svarene mere pålidelige.
En udvikler ved navn Haider, kendt på X (tidligere Twitter) under pseudonymet "@slow_developer", har delt sin begejstring og forklaret, at DeepSeek-R1-0528 er "simpelthen fantastisk til kodning". Han fortæller, hvordan AI'en genererede ren kode og funktionelle tests til en udfordring med et ordbedømmelsessystem, hvor alt fungerede perfekt fra første forsøg. En præstation, som ifølge ham kun OpenAI's o3 tidligere havde formået at matche.
OpenAI Codex: Den AI, der koder for dig, mellem genistreg og virkelig hovedbrud
I erkendelse af, at ikke alle har adgang til superkraftfulde servere, har DeepSeek også udviklet en lettere version: DeepSeek-R1-0528-Qwen3-8B. Dette er en såkaldt "destilleret" model: en mere kompakt version, der bevarer det væsentlige af sin storebrors intelligens. Lidt som en meget koncentreret espresso sammenlignet med en stor filterkaffe. Denne model med 8 milliarder parametre (mod hundredvis for de større) skulle levere topresultater blandt open source-modeller på opgaver som AIME 2024.
Ifølge hjemmesiden Modal kræver det at køre en sådan model i "halv præcision" (FP16), en teknik til at mindske dens hukommelsesforbrug, omkring 16 GB GPU-hukommelse. Det betyder, at en god gamer-grafikkort, som en NVIDIA RTX 3090 eller 4090, er nok. For endnu mere komprimerede versioner ("kvantificerede") kunne kort med 8 til 12 GB VRAM, som RTX 3060, gøre det. Dette gør adgangen til avanceret AI mere demokratisk for akademisk forskning eller mindre industrielle applikationer.
Vidste du?
En AI's "tænkning" måles også i "tokens"! For hvert komplekse spørgsmål i AIME 2025-testen behandler DeepSeek-R1-0528 i gennemsnit 23.000 af disse tekstenheder, næsten det dobbelte af den tidligere version. En rigtig digital snakketøs i logikkens tjeneste!
Google I/O 2025: AI i dine briller og bag rattet – Googles nye hardware-satsning
Ankomsten af DeepSeek-R1-0528 er mere end en simpel teknisk opdatering. Det er et kraftfuldt signal: innovation inden for AI er ikke begrænset til et par rige spillere. Ved at satse på open source og høj ydeevne positionerer DeepSeek sig som en seriøs og tilgængelig konkurrent. Reaktionerne på de sociale medier tager ikke fejl, nogle kommentatorer mener, at DeepSeek "sigter efter kongen" og at denne version kommer farligt tæt på ydeevnen af o3 og Gemini 2.5 Pro. Nogle spekulerer endda i, at denne opdatering kunne varsle ankomsten af en endnu kraftigere "R2"-model.
DeepSeek-R1-0528 illustrerer en spændende tendens: fremkomsten af open source AI-modeller, der kan konkurrere med lukkede, betalingsløsninger. Det er glædeligt nyt for innovation, forskning og udvikling af nye applikationer, da det gør disse avancerede teknologier mere tilgængelige.
Så kommer den næste AI-revolution fra en garage eller et åbent laboratorium i stedet for et glastårn? Fremtiden vil vise det, men én ting er sikker: kampen er langt fra ovre, og det er kun godt for os!
Jerome
Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.