Lähes kaikki suuret tekoälykehittäjät ovat keskittyneet rakentamaan tekoälymalleja, jotka jäljittelevät ihmisten järkeä, mutta uusi tutkimus osoittaa, että nämä huippuluokan järjestelmät voivat kuluttaa paljon enemmän energiaa, mikä herättää huolta sähköverkkoihin kohdistuvasta tekoälypaineesta.
Torstaina julkaistun tutkimuksen mukaan tekoälymallit käyttivät keskimäärin 30 kertaa enemmän tehoa vastatakseen 1 000 kirjalliseen kehotteeseen kuin vaihtoehdot, joissa tätä päättelykykyä ei ollut tai joissa se oli estetty. Työn suoritti AI Energy Score -projekti, jota johtivat Hugging Face -tutkija Sasha Luccioni ja Salesforce Inc., tekoälyn kestävän kehityksen johtaja Boris Gamazaychikov.
Tutkijat arvioivat 40 avointa ja vapaasti saatavilla olevaa tekoälymallia, mukaan lukien ohjelmistot OpenAI:lta, Alphabet Inc:n Googlelta ja Microsoft Corp. Joillakin malleilla havaittiin olevan paljon laajempi virrankulutusero, mukaan lukien kiinalaisen DeepSeekin malli. DeepSeekin R1-mallin pienennetty versio käytti vain 50 wattituntia reagoidakseen kehotteisiin, kun päättely sammutettiin, tai suunnilleen yhtä paljon energiaa kuin kuluu 50 watin hehkulampun käyttämiseen tunnin ajan. Kun päättelyominaisuus oli käytössä, sama malli vaati 7 626 wattituntia tehtävien suorittamiseen.
Tekoälyn kasvavat tehotarpeet ovat yhä enemmän tarkastelun kohteena. Teknologiayritysten kiirehtiessä rakentamaan lisää ja suurempia tietokeskuksia tukemaan tekoälyä, alan tarkkailijat ovat ilmaisseet huolensa sähköverkkojen rasittamisesta ja kuluttajien kohoavista energiakustannuksista. Bloombergin syyskuussa tekemä tutkimus havaitsi, että sähkön tukkuhinnat ovat nousseet jopa 267 % viimeisen viiden vuoden aikana datakeskusten lähellä olevilla alueilla. On myös ympäristöhaittoja, sillä Microsoft, Google ja Amazon.com Inc. ovat aiemmin myöntäneet, että palvelinkeskusten rakentaminen voi vaikeuttaa heidän pitkän aikavälin ilmastotavoitteitaan.
Yli vuosi sitten OpenAI julkaisi ensimmäisen päättelymallinsa, nimeltään o1. Vaikka sen edellinen ohjelmisto vastasi lähes välittömästi kyselyihin, o1 käytti enemmän aikaa vastauksen laskemiseen ennen vastaamista. Sittemmin monet muut tekoälyyritykset ovat käynnistäneet samanlaisia järjestelmiä, joiden tarkoituksena on ratkaista monimutkaisempia, monivaiheisia ongelmia esimerkiksi luonnontieteiden, matematiikan ja koodauksen aloilla.
Vaikka päättelyjärjestelmistä on nopeasti tullut alan standardi monimutkaisempien tehtävien suorittamiseen, niiden tehovaatimuksia on tutkittu vain vähän. Suurin osa virrankulutuksen kasvusta johtuu siitä, että päättelymallit tuottavat paljon enemmän tekstiä vastaamisessa, tutkijat sanoivat.
Uuden raportin tavoitteena on ymmärtää paremmin, miten tekoälyn energiatarpeet kehittyvät, Luccioni sanoi. Hän toivoo myös, että se auttaa ihmisiä ymmärtämään paremmin, että eri toimintoihin soveltuvia tekoälymalleja on erilaisia. Kaikki kyselyt eivät vaadi turvautumista laskennallisesti intensiivisempään tekoälyjärjestelmään.
“Meidän pitäisi olla älykkäämpiä käyttäessämme tekoälyä”, Luccioni sanoi. “On tärkeää valita oikea malli oikeaan tehtävään.”
Tehonkäytön erojen testaamiseksi tutkijat käyttivät kaikkia malleja samalla tietokonelaitteistolla. He käyttivät samoja kehotteita jokaisessa yksinkertaisista kysymyksistä (kuten kysyminen, mikä joukkue voitti Super Bowlin tietyn vuoden aikana) monimutkaisempiin matemaattisiin ongelmiin. He käyttivät myös CodeCarbon-nimistä ohjelmistotyökalua seuratakseen, kuinka paljon energiaa kulutettiin reaaliajassa.
Tulokset vaihtelivat huomattavasti. Tutkijat havaitsivat, että yksi Microsoftin Phi 4 -päättelymalleista käytti 9 462 wattituntia päättelyn ollessa päällä verrattuna noin 18 wattituntiin, kun se oli pois päältä. Samaan aikaan OpenAI:n suuremmalla gpt-oss-mallilla oli vähemmän merkittävä ero. Se käytti 8 504 wattituntia laskennallisesti intensiivisimmällä “korkealla” asetuksella ja 5 313 wattituntia, kun asetus oli alhainen.
OpenAI, Microsoft, Google ja DeepSeek eivät vastanneet välittömästi kommenttipyyntöön.
Google julkaisi elokuussa sisäisen tutkimuksen, jonka mukaan sen Gemini AI -palvelun keskimääräinen tekstiviesti kulutti 0,24 wattituntia energiaa, mikä on suunnilleen saman verran kuin television katselu alle yhdeksän sekuntia. Google sanoi, että luku oli “huomattavasti pienempi kuin monet julkiset arviot”.
Suuri osa tekoälyn energiankulutuksesta käytävästä keskustelusta on keskittynyt laajamittaisiin tiloihin, jotka on luotu tekoälyjärjestelmien kouluttamiseen. Yhä useammin teknologiayritykset sijoittavat kuitenkin enemmän resursseja päätelmiin tai tekoälyjärjestelmien käyttöprosessiin koulutuksen jälkeen. Päättelymalleihin pyrkiminen on suuri osa tätä, koska nämä järjestelmät luottavat enemmän päätelmiin.
Viime aikoina jotkut teknologiajohtajat ovat havainneet, että tekoälyn energiankulutus on otettava huomioon. Microsoftin toimitusjohtaja Satya Nadella sanoi marraskuun haastattelussa, että teollisuuden on saatava “sosiaalinen lupa kuluttaa energiaa” tekoälyn palvelinkeskuksille. Hän väitti, että tätä varten teknologian on käytettävä tekoälyä hyvän tekemiseen ja laajan talouskasvun edistämiseen.