Træt af at skulle rode med inkompatible AI-værktøjer? En ny protokol, MCP, lover at spille dirigent. Og det er vigtigere, end det ser ud til.
Troede du, at den næste revolution inden for kunstig intelligens ville komme fra stadig mere gigantiske modeller, der kunne forudsige vejret i Smårup eller skrive digte i Baudelaires stil på LSD? Tag fejl! Den virkelige gamechanger, den der ændrer spillet bag kulisserne, er meget mere diskret, næsten... kedelig. Dens lille navn? MCP. Og tro os, bare fordi det er teknisk, betyder det ikke, det ikke er spændende.
24/05/2025 12:18 JérômeBag dette lidt barbariske akronym skjuler sig Model Context Protocol. Lanceret af virksomheden Anthropic i november 2024, er MCP en slags standard, en norm om man vil. Formålet? At standardisere den måde, hvorpå AI-applikationer kommunikerer med omverdenen, altså ud over deres oprindelige træningsdata.
For at sige det enkelt, forestil dig, at webapplikationer bruger protokoller som HTTP og REST til at kommunikere med hinanden og med servere. Nå, MCP er lidt den samme idé, men for at AI-modeller kan forbinde sig til forskellige værktøjer (dine emails, din kalender, dine projektstyringsværktøjer osv.) uden at skulle genopfinde hjulet hver gang. Det er lidt som om vi endelig har opfundet en universel stikprop til alle vores AI'er!
I øvrigt har idéen hurtigt vundet indpas hos store navne: OpenAI, AWS, Azure, Microsoft Copilot Studio og, ifølge vores informationer, snart Google, er allerede med på vognen. Udviklingskits (de berømte SDK'er) er endda tilgængelige i en masse sprog: Python, TypeScript, Java, C#, Rust, Kotlin og Swift, for ikke at nævne community-initiativer for Go og andre.
Overdrevne høflige AI? Den nye benchmark, der måler deres tilbøjelighed til at smigre.
For at forstå virkningen, lad os tage eksemplet med Lily, produktchef i en cloud-infrastrukturvirksomhed, et eksempel fra det dokument, vi har fået indsigt i. Lily, som mange af os, druknedes i notifikationer og opdateringer fra en halv snes værktøjer: Jira, Figma, GitHub, Slack, Gmail, Confluence... et mareridt at holde styr på.
Allerede i 2024 havde hun fornemmet potentialet i store sprogmodeller (LLM'er, disse AI'er, der kan forstå og generere tekst) til at syntetisere al denne information. Problemet? Hver model havde sin egen unikke måde at forbinde til tjenester på. Et virkeligt puslespil, der bandt hende endnu mere til en enkelt platform. Og da det blev nødvendigt at integrere transskriptioner fra et nyt værktøj, Gong, var det samme problem igen: en skræddersyet forbindelse, der gjorde et eventuelt skift af LLM endnu sværere.
Så kom MCP. I dag styrer Lily alt via Claude (en AI-model), forbundet til hendes professionelle applikationer gennem en lokal MCP-server. Aktivitetsrapporterne skriver sig næsten selv, sammenfatninger til ledelsen er kun et prompt væk. Og hvis en ny, mere avanceret AI-model dukker op? Ingen panik, hun kan adoptere den uden at miste alle sine værdifulde integrationer. Hun bruger endda Cursor med en OpenAI-model og den samme MCP-server til sine personlige kodeprojekter. Hendes udviklingsmiljø "forstår" allerede det produkt, hun arbejder på. Magisk? Nej, standardiseret!
Er AI de nye hacking-dronninger? Konkurrencer afslører deres overraskende offensive potentiale
Lilys historie illustrerer en simpel sandhed: ingen kan lide at bruge fragmenterede værktøjer eller føle sig fanget af en leverandør. Vi vil alle have friheden til at bruge de bedste værktøjer, punktum. Og det er her, MCP kommer ind i billedet.
Men pas på, standarder har også konsekvenser.
For det første kunne SaaS-leverandører uden solide offentlige API'er godt finde sig selv på sidelinjen. Kunderne vil kræve MCP-kompatibilitet for deres AI'er.
For det andet, forvent en lynhurtig acceleration i udviklingscyklusserne for AI-applikationer. Ingen grund til at skrive kilometerlange mængder af tilpasset kode for at teste en idé; udviklere kan stole på MCP-servere og klar-til-brug-klienter som Claude Desktop, Cursor eller Windsurf.
For det tredje vil omkostningerne ved at skifte leverandør (eller AI-model) falde drastisk. Da integrationer er adskilt fra specifikke modeller, vil virksomheder kunne skifte fra Claude til OpenAI til Gemini – eller endda blande modeller – uden at skulle genopbygge alt.
Notesblok: Fra simpel notesblok til AI-assistent – Windows’ overraskende forvandling
Selvfølgelig er alt ikke rosenrødt i standardernes land. MCP bringer sine egne udfordringer.
Tillid er afgørende. Dusinvis af MCP-kataloger, der tilbyder tusindvis af community-drevne servere, er dukket op. Men hvis du ikke styrer serveren – eller personen, der styrer den – risikerer du at dine følsomme data forsvinder. Derfor er det vigtigt for SaaS-virksomheder at levere officielle servere.
Kvalitet er også en udfordring. API'er udvikler sig, og en MCP-server, der ikke vedligeholdes ordentligt, kan hurtigt blive forældet, lidt som et GPS, der sender dig ud i en kartoffelmark. Der findes endnu ikke et autoritativt MCP-katalog, hvilket understreger behovet for officielle og velvedligeholdte servere.
Pas også på fristelsen til at lave en "mega-MCP-server". At proppe for mange værktøjer ind i den øger omkostningerne (i "tokens" forbruget af AI'en) og risikerer især at overvælde modellerne med en flod af muligheder. En LLM kan hurtigt blive desorienteret, hvis den har adgang til for mange værktøjer. Dokumentet antyder, at mindre, opgave-specifikke servere vil være mere relevante.
Endelig vedvarer udfordringerne vedrørende autorisation og identitet. Forestil dig, at Lily giver Claude tilladelse til at sende emails med den velmenende instruktion: "Send hurtigt en opdatering til Chris". I stedet for at skrive til sin chef, Chris, kunne AI'en bombardere alle "Chris" i sin adressebog! For handlinger med høje indsatser forbliver menneskelig tilsyn derfor nødvendigt.
MCP er ikke bare en kortvarig hype, men, som dokumentet, vi har gennemgået, understreger, en "grundlæggende ændring i AI-applikationers infrastruktur". Det er en virkelig selvforstærkende dynamik: hver ny server, hver ny integration, hver ny applikation forstærker bevægelsen. Nye værktøjer og platforme dukker allerede op for at forenkle oprettelse, test, udrulning og opdagelse af MCP-servere.
Teams, der omfavner denne protokol, "vil levere produkter hurtigere med bedre integrationshistorier". Hvad angår de forsinkede, vil de "måtte kæmpe for deres relevans". Så, klar til at hoppe med på MCP-toget?
I sidste ende er en smule orden og metode i AI's glade rod måske ikke så "kedeligt" alligevel. Og hvad nu hvis den sande superkraft var at rydde godt op i sit digitale værelse?
Jerome
Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.