AI-træningsomkostninger reduceret med næsten ti gange, og præstationer der kan konkurrere med eller endda overgå Google Search? Det er løftet bag ZeroSearch, Alibabas nye trick til at gøre sine kunstige intelligenser mere selvstændige.
Hvad hvis din kunstige intelligens ikke længere havde brug for Google for at blive klogere? Det er lidt den vanvittige (men geniale) idé bag ZeroSearch, en teknologi udviklet af Alibabas forskere. Forestil dig: i stedet for at bombardere eksterne søgemaskiner med millioner af dyre forespørgsler for at lære, træner AI'en nu i et lukket system, i sin egen digitale sandkasse. En lille revolution, der kunne ændre spillet i AI-verdenen.
24/05/2025 12:04 JérômeZeroSearchs hemmelighed? En stor sprogmodel (LLM) – disse digitale hjerner, der driver AI som ChatGPT – træner en anden til at blive en ekspert i informationssøgning. Tænk på det som en gammel vis mand, der lærer en ung disciple kunsten at navigere i et bibliotek, men uden nogensinde at sætte sine ben i et rigtigt bibliotek! Denne "simulerings-LLM" lærer først ved at observere, hvordan et menneske ville interagere med en rigtig søgemaskine. Derefter, udstyret med denne viden, genererer den selv de dokumenter, relevante eller ej, som "elev-LLM'en" (politikmodellen) vil bruge til sin træning. Alt sammen uden at sende en eneste forespørgsel udad under denne intensive læringsfase.
AlphaEvolve: Googles AI, der koder hurtigere end sin skygge
I hjertet af ZeroSearch ligger forstærkningslæring (RL). Det er lidt som at lære en hund at gøre kunst ved at give den en godbid hver gang den lykkes. Bortset fra at her lærer AI'en (politikmodellen) at søge godt ved at modtage virtuelle "belønninger", når den finder den rigtige information simuleret af sin partner, simulerings-LLM'en. Det store trick er, at hele denne intensive læringsfase foregår internt uden at involvere eksterne søgemaskiner.
"Simulerings-LLM'en" er hjørnestenen i ZeroSearch. Efter en indledende tilpasningsfase, hvor den lærer at efterligne stilen og typen af resultater fra en rigtig søgemaskine (ved at generere både "nyttige" dokumenter og andre, der med vilje er "støjende" eller mindre relevante), bliver den den officielle leverandør af træningsdokumenter. Tanken er, at LLM'er allerede har lagret en enorm mængde viden under deres indledende fortræning; forskellen fra en rigtig søgemaskine ville hovedsageligt ligge i stilen af de returnerede tekster.
ZeroSearch oversvømmer ikke sin elev med information. Den bruger en "kurværkslærings"-strategi. Det er som en skoleplan: man starter med nemme øvelser og øger gradvis sværhedsgraden. Simulerings-LLM'en begynder med at levere klare og højkvalitetsdokumenter, og derefter forringes kvaliteten gradvist ved at introducere "støj" og mere tvetydige oplysninger. Dette tvinger den lærende model til at skærpe sin kritiske sans og evne til at skille hveden fra skæven, som den ville skulle gøre i den virkelige webs informationsjungle.
Resultaterne offentliggjort af Alibaba får én til at løfte øjenbrynene. Ifølge forskningsdokumentet overgik en ZeroSearch-model med en simulerings-LLM på 14 milliarder parametre Google Search på flere spørgsmål-og-svar-testserier. Mere konkret opnåede denne ZeroSearch (Qwen-2.5-7B-Instruct med en SFT-14B simulerings-LLM) en gennemsnitlig score på 33,97 på syv testbenchmarks, sammenlignet med 32,47 for en tilsvarende opsætning, der brugte Google Search API. Selv en mindre simuleringsmodel på 7 milliarder parametre klarede sig bedre end den virkelige søgning med en score på 33,06.
ZeroSearchs store argument er dens omkostninger. At træne en AI til at søge information via kommercielle API'er som Googles (via SerpAPI) kan hurtigt blive en økonomisk byrde. For cirka 64.000 søgeforespørgsler ville regningen løbe op på omkring 586,70 dollars. Med ZeroSearch og dens simulerings-LLM på 14 milliarder parametre, der kører på fire A100 GPU'er, falder omkostningerne til kun 70,80 dollars. Det er en reduktion på næsten 88%! For mindre virksomheder eller forskningslaboratorier er denne forskel enorm.
Ud over besparelser rejser ZeroSearch en mere grundlæggende spørgsmål: AI'ers selvstændighed. Ved at lære at "google sig selv" i en kontrolleret miljø kunne disse AI'er forbedre sig mere uafhængigt og reducere deres afhængighed af tech-giganterne og deres dyre API'er. Dette er et perspektiv, der kunne "udjævne spillepladen", som rapporten understreger, ved at demokratisere adgangen til at skabe avancerede AI'er. Alibaba har desuden gjort koden, datasættene og de fortrænede modeller open source for at opmuntre fællesskabet til at tage fat på emnet.
Ironisk nok må ZeroSearchs simulerings-LLM til at begynde med lære fra interaktioner med de samme søgemaskiner, den forsøger at undgå under sin intensive træning. Det er en uundgåelig opstartsfase. Så selvom målet er uafhængighed, inkorporerer systemet indirekte mønstre og måske endda visse bias fra eksisterende søgemaskiner.
Vidste du det?
En af ZeroSearchs tekniske udfordringer er at lære simulerings-LLM'en at generere ikke kun relevante dokumenter, men også "støjende" eller mindre nyttige dokumenter. For at opnå dette ændrer forskerne blot et par ord i den prompt, der gives til simulerings-LLM'en, f.eks. ved at bede den om at generere et "nyttigt" dokument eller, modsat, et "støjende" dokument. Et simpelt trick til et komplekst resultat!
Google I/O 2025: AI i dine briller og bag rattet – Googles nye hardware-satsning
ZeroSearch er utvivlsomt et snedigt teknisk fremskridt, der ryster træet for AI-træning. Løftet om en drastisk omkostningsreduktion og større kontrol over læringsprocessen er tiltrækkeligt, især for de mindre aktører i branchen. Hvis denne teknologi holder alle sine løfter, kunne den fremskynde innovationen og diversificere AI-landskabet.
Selvfølgelig er alt ikke rosenrødt. Manglen på adgang til realtidsinformation er en torn i siden, og risikoen for "modelkollaps" (hvor AI'en ender med at fortælle vrøvl efter at have fodret sig selv) eller forstærkning af bias i de indledende data er seriøse udfordringer.
Så, ZeroSearch – fremtidens gravdigger for Google i AI-træning eller blot en (genial) optimering? En ting er sikker: ved at lære sine AI'er at fiske i deres egen lille dam viser Alibaba os, at når det kommer til kunstig intelligens, har vi ikke set enden på at bryne vores hjerner... for at spare vores egne!
Kilder:
https://www.techrepublic.com/article/news-alibaba-zerosearch-ai-training-costs/Jerome
Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.