ChatGPT troši struju koliko i 35.000 američkih domaćinstava godišnje: Ovo je najveći paradoks
Jedan upit ChatGPT-u putem modela GPT-4o troši oko 0,43 Wh struje, što za 700 miliona upita dnevno predstavlja godišnji utrošak energije ekvivalentan potrošnji 35.000 američkih domaćinstava, količini pijaće vode dovoljnoj za potrebe 1,2 miliona ljudi i emisiji ugljen-dioksida koju bi neutralisala šuma veličine Čikaga.
Svaka interakcija sa ChatGPT-jem zasnovana je na ogromnoj fizičkoj infrastrukturi: serverima koji gutaju električnu energiju, rashladnim sistemima koji troše vodu, čipovima izrađenim od retkih metala, kablovima od bakra i silicijumskih pločica koji spajaju sve te procese u jedinstvenu mrežu, navodi se u najnovijem broju biltena Makroekonomske analize i trendovi (MAT) u analiza "AI i globalna trka za energijom, vodom i metalima".
Paradoksalno, veštačka inteligencija je istovremeno najveći potrošač i najveća nada energetske tranzicije, navela je autorka analize Katarina Stančić.
Dok AI (veštačka inteligencija) sistemi gutaju ogromne količine električne energije, oni nude i alate koji mogu pomoći da se ta energija koristi racionalnije.
Već danas, algoritmi optimizovani za energetske mreže mogu precizno da predviđaju proizvodnju iz vetra i sunca, da balansiraju fluktuacije potrošnje u realnom vremenu, pa čak i da automatski preusmeravaju višak energije tamo gde je najpotrebniji.
U industriji, veštačka inteligencija analizira procese grejanja, hlađenja i transporta kako bi smanjila gubitke, dok se u gradovima koristi za upravljanje saobraćajem, osvetljenjem i javnim zgradama stvarajući prve obrise "pametne energetske infrastrukture".
Postoje i kreativna rešenja koja pokušavaju da ublaže ekološki otisak samih data centara.
U Helsinkiju i Stokholmu, toplota koja nastaje radom servera preusmerava se u sisteme daljinskog grejanja i koristi za zagrevanje stambenih zgrada.
Na Islandu, gde je hlađenje prirodno olakšano klimom, energija se gotovo u potpunosti dobija iz geotermalnih izvora, pa data centri tamo funkcionišu kao deo zatvorenog energetskog kruga.
Drugim rečima, AI može postati i deo rešenja, a ne samo deo problema.
Međutim, sa svakim talasom tehničke efikasnosti u istoriji dolazio je i isti fenomen koji ekonomisti nazivaju Jevonsov paradoks: što je nešto efikasnije, to ga više koristimo.
Kada su motori postali štedljiviji, automobili su postali češći. Kada su računari postali pristupačniji, broj korisnika je eksplodirao.
Isto se sada događa i sa veštačkom inteligencijom - novi čipovi, poput Nvidia Blackwell serije ili Googleovih TPU procesora, obavljaju više operacija nego ikada ranije, ali to samo otvara vrata još većem broju aplikacija, korisnika i tržišta.
Rezultat je kontradiktoran: sistem postaje "pametniji", ali ukupna potrošnja energije i resursa nastavlja da raste.
Procene Međunarodne agencije za energetiku (IEA) pokazuju da data centri troše oko 1,5 odsto svetske električne energije, što je ekvivalent potrošnji cele Velike Britanije.
Samo mali deo te energije danas odlazi direktno na AI, ali taj udeo eksponencijalno raste.
Do kraja decenije, potražnja za električnom energijom u data centrima mogla bi da se udvostruči i to najviše zahvaljujući veštačkoj inteligenciji.
(Telegraf Biznis/Tanjug)
Video: Macut: Podrška preduzetništvu i očuvanju kulturnog identiteta
Telegraf Biznis zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.