ChatGPT troši struju koliko i 35.000 američkih domaćinstava na godišnjem nivou

Jedan upit ChatGPT-u putem modela GPT-4 troši oko 0,43 Wh struje, što za 700 miliona upita dnevno predstavlja godišnji utrošak energije ekvivalentan potrošnji 35.000 američkih domaćinstava, količini pijaće vode dovoljnoj za potrebe 1,2 miliona ljudi i emisiji ugljen-dioksida koju bi neutralisala šuma veličine Čikaga.

Svaka interakcija sa ChatGPT-jem zasnovana je na ogromnoj fizičkoj infrastrukturi: serverima koji gutaju električnu energiju, hladnim sistemima koji troše vodu, čipovima izrađenim od rijetkih metala, kablovima od bakra i silicijumskim pločicama koji spajaju sve te procese u jedinstvenu mrežu, navodi se u najnovijem broju biltena Makroekonomske analize i trendovi (MAT) u analizi „AI i globalna trka za energijom, vodom i metalima“.

Paradoksalno, vještačka inteligencija je istovremeno najveći potrošač i najveća nada energetske tranzicije, navela je autorka analize Katarina Stančić.

- TEKST NASTAVLJA ISPOD OGLASA -

Dok AI (vještačka inteligencija) sistemi gutaju ogromne količine električne energije, oni nude i alate koji mogu pomoći da se ta energija koristi racionalnije. Već danas, algoritmi optimizovani za energetske mreže mogu precizno da predviđaju proizvodnju iz vjetra i sunca, da balansiraju fluktuacije potrošnje u realnom vremenu, pa čak i da automatski preusmjeravaju višak energije tamo gdje je najpotrebniji.

U industriji, vještačka inteligencija analizira procese grijanja, hlađenja i transporta kako bi smanjila gubitke, dok se u gradovima koristi za upravljanje saobraćajem, osvjetljenjem i javnim zgradama, stvarajući prve obrisa „pametne energetske infrastrukture“.

Postoje i kreativna rješenja koja pokušavaju da ublaže ekološki otisak samih data centara.

- TEKST NASTAVLJA ISPOD OGLASA -

U Helsinkiju i Stokholmu, toplota koja nastaje radom servera preusmjerava se u sisteme daljinskog grijanja i koristi za zagrijavanje stambenih zgrada.

Na Islandu, gdje je hlađenje prirodno olakšano klimom, energija se gotovo u potpunosti dobija iz geotermalnih izvora, pa data centri tamo funkcionišu kao dio zatvorenog energetskog kruga.

Drukčije rečeno, AI može postati i dio rješenja, a ne samo dio problema. Međutim, sa svakim talasom tehničke efikasnosti u istoriji dolazio je i isti fenomen koji ekonomisti nazivaju Jevonsov paradoks: što je nešto efikasnije, to ga više koristimo.

Kada su motori postali štedljiviji, automobili su postali češći. Kada su računari postali pristupačniji, broj korisnika je eksplodirao.

Isto se sada događa i sa vještačkom inteligencijom – novi čipovi, poput Nvidia Blackwell serije ili Google-ovih TPU procesora, obavljaju više operacija nego ikada ranije, ali to samo otvara vrata još većem broju aplikacija, korisnika i tržišta.

Rezultat je kontradiktoran: sistem postaje „pametniji“, ali ukupan trošak energije i resursa nastavlja da raste.

Procjene Međunarodne agencije za energetiku (IEA) pokazuju da data centri troše oko 1,5 odsto svjetske električne energije, što je ekvivalent potrošnji cijele Velike Britanije.

Samo mali dio te energije danas odlazi direktno na AI, ali taj udio eksponencijalno raste.

Do kraja decenije, potražnja za električnom energijom u data centrima mogla bi da se udvostruči i to najviše zahvaljujući vještačkoj inteligenciji.

NAJNOVIJE

Ostalo iz kategorije

Najčitanije