Clock IA > Czy sztuczna inteligencja pochłonie całą naszą energię elektryczną? Śledztwo w sprawie rosnącego apetytu na moc.
Czy sztuczna inteligencja pochłonie całą naszą energię elektryczną? Śledztwo w sprawie rosnącego apetytu na moc.

Czy sztuczna inteligencja ma apetyt na prąd jak ogr?

Sztuczna inteligencja rozwija się w zawrotnym tempie, a wraz z nią rośnie jej apetyt na energię. Między obietnicami efektywności a gwałtownym wzrostem zapotrzebowania, branża staje przed poważnym wyzwaniem… czy jednak na pewno?

Wasz ulubiony asystent AI codziennie zadziwia was swoimi możliwościami, ale czy macie pojęcie, ile energii pochłania w tle, aby działać? Gdy sztuczna inteligencja wkrada się wszędzie – od naszych smartfonów po badania naukowe – jej zużycie prądu staje się gorącym tematem. Zanurzmy się w świat rewolucji, która jest równie błyskotliwa, co energochłonna, w oparciu o najnowsze dostępne dane.

24/05/2025 09:33 Jérôme

Centra danych: bijące (i energochłonne) serce sztucznej inteligencji

W sercu rewolucji AI znajdują się centra danych – ogromne cyfrowe fabryki wypełnione serwerami komputerowymi. To one trenują modele AI i odpowiadają na nasze zapytania. Ich apetyt na energię jest kolosalny. Według raportu "Energy and AI" z lutego 2025 roku Międzynarodowej Agencji Energii (IEA), centra danych odpowiadały już w 2024 roku za około 1,5% globalnego zużycia energii elektrycznej, czyli 415 terawatogodzin (TWh). Dla porównania, to nieco więcej niż całkowite roczne zużycie energii w kraju takim jak Hiszpania!

Największymi konsumentami są Stany Zjednoczone (45% globalnego zużycia), za nimi plasują się Chiny (25%) i Europa (15%). Trend jest wzrostowy: IEA przewiduje, że w swoim podstawowym scenariuszu zużycie energii przez te centra może się więcej niż podwoić do 2030 roku, osiągając około 945 TWh, a głównym motorem tego wzrostu jest sztuczna inteligencja. Do 2035 roku możemy nawet zbliżyć się do 1200 TWh. Zawrotne, prawda?

Pierwsza praca w branży technologicznej i AI: podwójna kara dla młodych absolwentów?

Mądrzejsze układy, ale wciąż coraz liczniejsze

Aby obsłużyć te złożone algorytmy, potrzebne są wyspecjalizowane procesory, zwłaszcza GPU (jednostki przetwarzania graficznego), pierwotnie zaprojektowane do gier wideo, ale niezwykle skuteczne w obliczeniach AI. Producenci, tacy jak Nvidia, nie próżnują: według prognoz Mizuho, o których pisze Investing.com, Nvidia może dostarczyć w 2025 roku od 6,5 do 7 milionów tych superukładów dla AI.

Aby upchnąć jeszcze większą moc w minimalnej przestrzeni, inżynierowie stosują prawdziwe cuda inżynierii. Weźmy technologię CoWoS (Chip on Wafer on Substrate), opisaną przez TSMC, tajwańskiego giganta produkcji układów scalonych. To jak ultra-wyrafinowana technologiczna "warstwówka", gdzie różne układy (główny procesor, ultraszybka pamięć zwana HBM – High-Bandwidth Memory) są ułożone i połączone bardzo gęsto na krzemowej płytce. Efekt? "Superukłady" znacznie potężniejsze i szybsze, kluczowe dla AI, ale też skupiające w sobie zużycie energii.

Na szczęście każda nowa generacja układów jest zazwyczaj bardziej wydajna. IEA zauważa na przykład, że najnowszy GPU B200 firmy Nvidia jest o 60% bardziej wydajny pod względem FLOP/watt niż jego poprzednik, H100. FLOP/watt to liczba skomplikowanych operacji matematycznych, które układ może wykonać dla każdego wata zużytej energii. Im wyższa ta liczba, tym bardziej energooszczędny jest układ dla danego zadania. To trochę jak "liczba kilometrów na litr" w świecie komputerów. Paradoks polega na tym, że chociaż każdy układ staje się bardziej oszczędny, globalny popyt rośnie tak szybko, że całkowite zużycie energii wciąż wzrasta.

Alarmujący brak kliknięć: Jak sztuczna inteligencja Google zamienia kliknięcia w miraże

Nieustanny balet serwerów: bardzo krótki cykl życia

Innym często pomijanym aspektem jest żywotność tych cennych GPU w centrach danych. Według analizy Trendforce, może ona wynosić zaledwie 1-3 lata! Dlaczego? Są one poddawane intensywnym obciążeniom podczas trenowania i działania AI, zużywając i rozpraszając czasem ponad 700 watów każdy. Badanie Meta dotyczące ich GPU Nvidia H100 wykazało nawet roczny wskaźnik awaryjności na poziomie około 9% dla GPU i ich pamięci HBM.

Szybka rotacja sprzętu ma dwie główne konsekwencje: ciągłą produkcję elektrośmieci i stały popyt na nowe urządzenia, co utrzymuje presję na zużycie energii związane z ich produkcją i użytkowaniem.

Czy wiedzieliście?

Według raportu "Energy and AI" IEA, globalne zużycie energii przez centra danych skoczyło o 12% rocznie od 2017 roku, czyli cztery razy szybciej niż globalne zużycie energii elektrycznej!

Rozpaczliwe poszukiwanie energii: jakie rozwiązania?

W obliczu rosnącego popytu, jak uniknąć przegrzania energetycznego? Badanych jest kilka ścieżek. Artykuł w czasopiśmie naukowym Cell Joule (streszczenie S2542-4351(24)00347-7) podkreśla palącą potrzebę przejrzystości i wiarygodnych danych. Autorzy wzywają do "rewolucji danych", w której operatorzy dzieliliby się większą ilością informacji o swoim zużyciu energii, efektywności systemów chłodzenia itp.

Kluczowym wskaźnikiem jest tutaj PUE (Power Usage Effectiveness). Wyobraźcie sobie, że na każdą kilowatogodzinę (kWh) zużytą bezpośrednio przez serwery komputerowe, potrzebna jest dodatkowa ilość energii do zasilania reszty centrum, jak klimatyzacja czy systemy zasilania. PUE mierzy ten "dodatkowy koszt". Idealny PUE wynosi 1.0 (cała energia idzie do serwerów); im wyższy, tym mniej efektywne energetycznie jest centrum danych. IEA zauważa poprawę, ze średnim globalnym PUE, które ma spaść z 1,41 do 1,29 do 2030 roku, co pozwoli zaoszczędzić około 90 TWh.

Jeśli chodzi o źródła energii, IEA szacuje, że odnawialne źródła energii mogą zaspokoić prawie połowę dodatkowego zapotrzebowania centrów danych do 2030 roku. Rozważane są jednak również inne źródła. Gaz ziemny, na przykład, przeżywa rozkwit, zwłaszcza w USA. DatacenterDynamics donosi, że firma Crusoe Energy zabezpieczyła 4,5 gigawata gazu ziemnego do bezpośredniego zasilania swoich przyszłych centrów danych AI, omijając tradycyjną sieć elektryczną. Energia jądrowa, w tym przyszłe małe reaktory modułowe (SMR) spodziewane około 2030 roku, również może odegrać rolę.

IEA przedstawia różne scenariusze na przyszłość: bardzo optymistyczny scenariusz "Lift-Off" pod względem adopcji AI (a więc i zużycia energii, do 1700 TWh w 2035 roku), scenariusz "Wysokiej Efektywności" i scenariusz "Wiatrów Przeciwnych" z hamulcami rozwoju, pokazując wyraźnie panującą niepewność.

Sztuczne inteligencje zbyt uprzejme? Nowy benchmark mierzący ich skłonność do pochlebstw.

Energochłonność sztucznej inteligencji to niezaprzeczalna rzeczywistość i główne wyzwanie na nadchodzące lata. Chociaż postępy w zakresie efektywności układów i centrów danych są stałe, eksplozja zastosowań i rosnąca moc modeli mogą zniwelować te zyski. Dostępne źródła wskazują, że przyszła trajektoria zależeć będzie od złożonej mieszanki: ciągłych innowacji technologicznych, zróżnicowanych strategii energetycznych (w tym masowego wykorzystania OZE), a przede wszystkim – jak podkreśla streszczenie Cell Joule – znacznie większej przejrzystości uczestników rynku. Bez jasnych i udostępnianych danych trudno precyzyjnie sterować tą transformacją.

Czy AI stanie się przyszłą mistrzynią ekologii cyfrowej, czy nienasyconą pożeraczką watów? Jedno jest pewne: zmusza nas, byśmy stali się naprawdę pomysłowi, aby prąd płynął... nie powodując przeciążenia planety!

Jerome

Ekspert w dziedzinie tworzenia stron internetowych, SEO i sztucznej inteligencji, moje praktyczne doświadczenie w tworzeniu zautomatyzowanych systemów sięga 2009 roku. Dziś, oprócz pisania artykułów mających na celu rozszyfrowywanie aktualności i wyzwań AI, projektuję rozwiązania szyte na miarę oraz działam jako konsultant i szkoleniowiec w zakresie etycznej, wydajnej i odpowiedzialnej AI.

Facebook - X (Twitter) - Linkedin
Clock IA > Czy sztuczna inteligencja pochłonie całą naszą energię elektryczną? Śledztwo w sprawie rosnącego apetytu na moc.