OpenAI wprowadza GPT-4.1 i jego "mini" wersję w ChatGPT. W programie: sztuczna inteligencja lepsza w kodowaniu, która idzie prosto do celu i odpowiada na potrzeby profesjonalistów, wszystko to w odpowiedzi na feedback użytkowników.
Masz już dość sztucznych inteligencji, które, gdy prosisz je o pomoc w kodowaniu, rozpoczynają niekończące się wyjaśnienia lub gubią się w domysłach? OpenAI, firma stojąca za ChatGPT, zdaje się wysłuchać próśb programistów i firm poszukujących efektywności. Właśnie zintegrowała GPT-4.1 i jego młodszego brata, GPT-4.1 mini, ze swoim słynnym chatbotem. A obietnica jest kusząca: bardziej wydajna SI, bardziej bezpośrednia i przede wszystkim zaprojektowana z myślą o rzeczywistych potrzebach świata profesjonalnego. Przyglądamy się temu dla was.
24/05/2025 04:33 JérômePoczątkowo GPT-4.1 było narzędziem dla profesjonalistów, przeznaczonym dla programistów korzystających z niego przez API (Application Programming Interface – wyobraź sobie specjalne gniazdko, które umożliwia różnym programom komunikację i współpracę). Ale nie przewidziano entuzjazmu testerów! Michelle Pokrass, odpowiedzialna za badania po wdrożeniu w OpenAI, potwierdziła to na X (dawniej Twitter): „początkowo planowaliśmy udostępnić ten model tylko przez API, ale wszyscy chcieliście go w ChatGPT :) miłego kodowania!”. Świetny przykład tego, jak opinie użytkowników mogą wpłynąć na strategię giganta technologicznego.
Dzięki temu GPT-4.1 jest teraz dostępne dla płatnych subskrybentów ChatGPT (Plus, Pro i Team), a GPT-4.1 mini stało się nawet domyślnym modelem dla wszystkich, w tym użytkowników darmowej wersji, zastępując stare GPT-4o mini.
Największą siłą GPT-4.1 jest jego zdolność do „wykonywania instrukcji” i doskonałości w zadaniach związanych z „kodowaniem”, jak podkreślił Kevin Weil, Kierownik Produktu w OpenAI. Liczby mówią same za siebie: według opublikowanych danych GPT-4.1 wykazuje poprawę o 21,4 punkty w porównaniu z GPT-4o w benchmarku SWE-bench Verified (standaryzowany test oceniający umiejętności inżynierskie w programowaniu) i zysk 10,5 punktów w Scale MultiChallenge za wykonywanie poleceń.
Kolejnym atutem, szczególnie ważnym dla tych, którzy szukają zwięzłych odpowiedzi, jest to, że GPT-4.1 jest o 50% mniej „gadatliwy” niż inne modele. Koniec z niepotrzebnym „błazenkowaniem” – AI idzie prosto do celu! Ta cecha szczególnie przypadła do gustu użytkownikom biznesowym podczas testów wstępnych. Model ten określany jest jako „nierozumujący”, co oznacza, że jest zoptymalizowany pod kątem efektywności i precyzji w wykonywaniu konkretnych zadań, a nie szerokiej refleksji czy nieokiełznanej kreatywności. To trochę jak modelowy pracownik: skrupulatny i bezpośredni.
Aby zrozumieć, jak działa ta AI, trzeba mówić o tokenach i oknie kontekstu. Tokeny to jak cegiełki języka AI, fragmenty słów lub zdań. Okno kontekstu to ilość tych tokenów, którą AI może „zapamiętać” podczas rozmowy, aby zrozumieć i odpowiadać spójnie. W ChatGPT GPT-4.1 korzysta ze standardowych okien kontekstu: 8000 tokenów dla użytkowników darmowych, 32 000 dla subskrybentów Plus i 128 000 dla użytkowników Pro. Co ciekawe, wersja API GPT-4.1 może obsługiwać nawet milion tokenów – możliwość, która być może pewnego dnia trafi do ChatGPT, umożliwiając analizę ogromnych dokumentów lub baz kodu.
Jeśli chodzi o bezpieczeństwo, OpenAI uruchomiło „Safety Evaluations Hub” dla większej przejrzystości. GPT-4.1 wypada tam dobrze, szczególnie z wynikiem 0,99 w skali „not unsafe” (nie niebezpieczny) OpenAI i 0,86 w przypadku trudniejszych zapytań. Osiąga solidne 0,96 w testach przeciwko próbom jailbreaku (technikom zmuszającym AI do omijania zasad bezpieczeństwa) pochodzącym od ludzi. Jednak radzi sobie słabiej (0,23) w bardzo specyficznym akademickim teście jailbreaku o nazwie StrongReject, co wskazuje na pole do poprawy w ekstremalnych warunkach.
Ta nowa wersja pojawia się po GPT-4.5, modelu, który, choć bardziej zaawansowany w niektórych aspektach, takich jak redukcja „halucynacji” (gdy AI wymyśla fakty), był krytykowany za wysoką cenę i słabe wyniki w kodowaniu w porównaniu z innymi modelami OpenAI. GPT-4.1 pozycjonuje się więc jako szybsza i bardziej ukierunkowana alternatywa, szczególnie dla rozwoju.
Jeśli chodzi o koszty, przez API GPT-4.1 jest oferowany za 2,00 $ za milion tokenów wejściowych i 8,00 $ za wyjściowe, podczas gdy wersja mini jest znacznie tańsza. To drożej niż niektóre modele konkurencji, takie jak Flash od Google, ale OpenAI podkreśla lepsze wyniki w testach kodowania i precyzyjne wykonywanie poleceń, co może być kluczowe dla firm.
Czy wiedzieliście?
Specyfiką GPT-4.1 jest to, że jest to model „nierozumujący”. W przeciwieństwie do AI zaprojektowanych do eksploracji pomysłów lub generowania bardzo kreatywnych tekstów, GPT-4.1 jest zoptymalizowany pod kątem wykonywania precyzyjnych instrukcji i dostarczania faktów, szczególnie w kodowaniu. To trochę jak różnica między artystą-wszystkożercą a rzemieślnikiem wyspecjalizowanym i efektywnym w swojej dziedzinie.
Czym jest DeepSeek? Chińska sztuczna inteligencja, która przyprawia Dolinę Krzemową o zawrót głowy
Pojawienie się GPT-4.1 to dobra wiadomość dla wielu zawodów w branży technologicznej:
Podsumowując, GPT-4.1 to solidna opcja dla firm szukających równowagi między wydajnością a wymaganiami operacyjnymi.
Z GPT-4.1 OpenAI niekoniecznie dąży do stworzenia najbardziej „inteligentnego” modelu w szerokim znaczeniu, ale raczej najbardziej użytecznego i efektywnego w konkretnych zadaniach, szczególnie dla biznesu. To ilustracja szerszego trendu: uczynienia zaawansowanych AI bardziej dostępnymi, adaptowalnymi i gotowymi do produkcji. Skupiając się na precyzji, efektywności i kosztach, OpenAI oferuje klarowniejszą ścieżkę integracji AI w codziennych operacjach firm.
Gotowi, by zlecić swojemu nowemu wirtualnemu koledze GPT-4.1 napisanie nienagannych linii kodu bez zbędnych ceregieli? Wygląda na to, że AI coraz mniej jest diwą, a coraz bardziej pracowitym rzemieślnikiem!
Jerome
Ekspert w dziedzinie tworzenia stron internetowych, SEO i sztucznej inteligencji, moje praktyczne doświadczenie w tworzeniu zautomatyzowanych systemów sięga 2009 roku. Dziś, oprócz pisania artykułów mających na celu rozszyfrowywanie aktualności i wyzwań AI, projektuję rozwiązania szyte na miarę oraz działam jako konsultant i szkoleniowiec w zakresie etycznej, wydajnej i odpowiedzialnej AI.