Nie uwierzysz ile ChatGPT zużywa prądu. Dane zaskakują

Anna BorzęckaSkomentuj
Nie uwierzysz ile ChatGPT zużywa prądu. Dane zaskakują

W ostatnim czasie bardzo dużo słyszy się na temat najnowszych algorytmów sztucznej inteligencji, a także o rozwiązaniach takich jak ChatGPT, Microsoft Copilot, Gemini i innych. Cóż, jako że oferują one rosnące i coraz bardziej zadziwiające możliwości, nie jest to nic dziwnego. Mało kto mówi jednak o tym, z jak wielkim kosztem wiąże się rosnące wykorzystanie AI – kosztem energetycznym. Tymczasem nowy raport sugeruje, że sam ChatGPT codziennie zużywa 17 tysięcy razy więcej prądu niż przeciętne gospodarstwo domowe.

Energochłonny potwór, który ciągle rośnie

Nowy raport opublikowany przez serwis New Yorker odnosi się do przeciętnego gospodarstwa domowego w USA. Oczywiście przeciętny Amerykanin zużywa więcej energii elektrycznej niż przeciętny Polak, ale mimo wszystko najnowsze dane doskonale ukazują zapotrzebowanie takich rozwiązań jak ChatGPT na prąd.

Dane New Yorkera wskazują na to, że ChatGPT pochłania każdego dnia aż 493 000 kilowatów energii. Tymczasem przeciętne polskie gospodarstwo domowe W ROK zużywa 29 kilowatów energii w przeliczeniu na 1 metr kwadratowy powierzchni użytkowej mieszkania. Jeśli popularność generatywnej sztucznej inteligencji wzrośnie, sytuacja się pogorszy.

Według pracy badawczej opublikowanej przez Alexa de Vriesa, analityka danych z Holdenderskiego Banku Narodowego, jeśli Google zdecyduje się w pewnym momencie włączyć generatywną sztuczną inteligencję do każdego wyszukiwania, doprowadzi to do gwałtownego wzrostu ilości energii elektrycznej zużywanej przez tę technologię, nawet do około 29 miliardów kilowatogodzin rocznie. De Vries wskazuje na to, że znacznie przekracza to ilość energii elektrycznej zużywanej przez wiele krajów, w tym Kenię, Gwatemalę i Chorwację.

„Sztuczna inteligencja jest po prostu bardzo energochłonna. Każdy z serwerów poświęconych AI już zużywa tyle energii, ile kilkanaście gospodarstw domowych w Wielkiej Brytanii łącznie. Liczby rosną więc bardzo szybko.”, powiedział de Vries.

Szacunki de Vriesa (jeżeli żaden z czynników się nie zmieni) wskazują na to, że do 2027 roku sektor sztucznej inteligencji może osiągnąć punkt, w którym będzie zużywał od 85 do 134 terawatogodzin rocznie. To ma stanowić nawet pół procenta światowego zużycia energii elektrycznej, co zdaniem analityka jest całkiem znaczącą liczbą.

ChatGPT i problem jego popularności

ChatGPT w tej chwili jest prawdopodobnie najpopularniejszym czatbotem zasilanym przez sztuczną inteligencję na świecie. Niedawny raport ujawnił, że dominuje on zwłaszcza na rynku mobilnym, mimo że Microsoft udostępnił na urządzeniach z Androidem i iOS usługę Microsoft Copilot bazującą na modelach GPT-4 i DALL-E 3.

Na przestrzeni ostatnich miesięcy wielokrotnie pokazano, jak wielkimi możliwościami ChatGPT dysponuje. Chatbot potrafi generować klucze do Windowsa, projektować roboty, odrabiać prace domowe za uczniów, umożliwiać programowanie osobom, które mają bardzo ograniczoną wiedzę na temat programowania i nie tylko. Stąd jego gigantyczna popularność.

Niestety, popularność narzędzia wiąże się z ogromnymi kosztami. OpenAI wydaje nawet 700 000 dolarów dziennie, by utrzymywać ChatGPT. Okaże się jednak, czy firma zdecyduje się zmienić z tego powodu swój model biznesowy.

Źródło: The New Yorker, fot. tyt. Canva

Udostępnij

Anna BorzęckaSwoją przygodę z dziennikarstwem rozpoczęła w 2015 roku. Na co dzień pisze o nowościach ze świata technologii i nauki, ale jest również autorką felietonów i recenzji. Chętnie testuje możliwości zarówno oprogramowania, jak i sprzętu – od smartfonów, przez laptopy, peryferia komputerowe i urządzenia audio, aż po małe AGD. Jej największymi pasjami są kulinaria oraz gry wideo. Sporą część wolnego czasu spędza w World of Warcraft, a także przyrządzając potrawy z przeróżnych zakątków świata.