Kunstig intelligens, vann og klima

Bruk av kunstig intelligens (KI) fører til økt strøm- og vannforbruk, ifølge nyhetsmeldinger. Men riktig bruk av KI kan også gi store klimagevinster, sier forskningsleder Signe Riemer-Sørensen ved SINTEF.

I en sak som også ble gjengitt i norske medier, ble det blant annet vist til at Microsofts vannforbruk ifølge selskapets egen bærekraftsrapport økte med hele 34 prosent i 2022 fra året før. Hovedårsaken skal være samarbeidet med KI-foretaket OpenAI, som blant annet står bak den mye omtalte tjenesten ChatGPT.

Vi snakker med

Signe Riemer-Sørensen er forskningsleder ved SINTEF

Den amerikanske forskeren Shaolei Ren har i en upublisert, men mye omtalt artikkel beregnet at tjenesten kan forårsake fordamping av en halvliter vann for en serie på 5-50 spørsmål. Også Google rapporterte en økning i vannforbruket i fjor, på 20 prosent. Også det skal ifølge Ren ha sammenheng med økt satsing på KI.

Men er KI den nye klimaverstingen? Kan ikke teknologien også brukes til å spare vann og energi på mange områder? Vi spør KI-forsker Signe Riemer-Sørensen ved SINTEF.

Ekstremt tunge beregninger

<2°C: – Hva er det med KI som gjør at vann- og strømforbruket blir så høyt?

Signe Riemer-Sørensen: – Det er ekstremt tunge beregninger som gjøres, på store mengder data. Det koster mye strøm og prosessorene utvikler mye varme. Da kreves det også vann til å kjøle prosessorene som gjør beregningene.

Dessuten: Store datasentre er dyre å bygge. Skal det bli lønnsomt, må de kjøres kontinuerlig, så prosessorene brukes mest mulig. Noe som imidlertid skiller KI fra andre datasenteraktiviteter, er at man ofte bruker grafikkprosessorer, eller GPU, til å gjøre disse beregningene. Det øker kjølebehovet.

– Hvorfor brukes grafikkprosessorer og hvorfor er de så tørste?

– Det handler om hvordan de ulike prosessorene er bygget. Grovt fortalt gjør en «vanlig» prosessor, en såkalt CPU, få beregninger av gangen. En GPU, derimot, kan gjøre veldig mange beregninger på én gang. Og den er mye mer kompakt. Dermed utvikler den mye mer varme, og dermed stort kjølebehov.

Få alle ekspertintervjuene i innboksen

I Ekspertintervjuet prater vi med forskere og andre fageksperter om temaer som er relevant for klimakrisen og det grønne skiftet.

Abonner på Ekspertintervjuet:

Det krever også omtrent ti ganger mer energi å stille et spørsmål til ChatGPT enn det gjør å søke i en søkemotor som Google. Samtidig må jeg skyte inn at det ikke er så mye transparens om dette i bransjen. Det er ingen som trenger å oppgi hvor mye vann eller strøm de bruker. Verken på trening av KI-modeller eller når de brukes. Vi har hørt tallene om en halvliter vann som fordamper på én samtale på 20-50 spørsmål med ChatGPT. Men de er basert på mindre modeller utført på mindre maskiner skalert opp til beregningsbehovet for ChatGPT.

– Ikke bruk ChatGPT på det du like gjerne kunne googlet

– Nå tenker jeg likevel det er en del som får litt dårlig samvittighet der ute …

– Altså: Det er helt greit å bruke GhatGPT der det faktisk er en fordel. Men dersom du egentlig kunne klart deg med å søke på Google, bør du heller gjøre det.

– Dette handler kanskje litt om at en del av de produktene som er tilgjengelige, er litt umodne? Kanskje ikke helt optimalisert med tanke på energibruk?

– Ja, slik jeg ser det, er det to ting som er feil med ChatGPT. Det ene er at modellen er laget ekstremt stor for at den skal bli så generell som mulig. I virkeligheten tror jeg det er bedre å trene flere modeller som er gode på ulike ting. Det tror jeg også vi vil se mer av i fremtiden.

Det andre er rent beregningsteknisk. Forskning viser at man kan oppnå de samme resultatene på KI-modeller på færre parametere enn det som har vært normalt. Jeg vet ikke om man da har sett spesifikt på språkmodeller som ChatGPT. Men personlig er jeg overbevist om at man også kan få dem til å kjøre mer effektivt på samme måte.

Og til slutt handler det altså om at de som setter opp brukergrensesnitt, kanskje kan investere litt i å filtrere ut forespørsler som egentlig bare krever et nettsøk, fremfor å kjøre i gang språkmotoren.

Læring koster, bruk koster mer

– Mange snakker om at trening av disse motorene er spesielt energikrevende, men hva menes med egentlig med «trening»?

– Det som ligger bak KI og såkalt maskinlæring, er algoritmer. Som er satt sammen i store og ekstremt komplekse matematiske modeller. Disse skal gi en bestemt type output gitt en bestemt type input. Hvis du for eksempel viser den et bilde av en katt, så ønsker du at den skal gi ordet «katt» som output. For å oppnå det, må du vise den et bilde av en katt, og så gå inn i modellen og justere en haug med parametere, inntil du får «katt» ut. Og så gjentar du det for alt annet den skal lære.

Denne læringen krever mye beregninger, og dermed er det lurt å gjøre dette på GPU fremfor CPU. Men da får man også høyt kjølebehov. Man har beregnet at å trene opp forrige generasjons ChatGPT-språkmodell, GPT3.0, krevde 700.000 liter vann.

Men den løpende kostnaden kan være mye høyere. Tidligere i år hadde ChatGPT anslagsvis 100 millioner brukere. Om de alle har en samtale denne måneden, og hver samtale fører til fordamping av en halv liter vann, tilsvarer det altså 50 millioner liter vann på en måned.

– Heisann. Det er jo en del.

– Samtidig er det viktig å tenke på at det har mye å si hvor disse datasentrene ligger og hvordan de brukes. Det avhenger av belastningen, hvilken type elektrisitet som brukes, og vanntilgangen. Det handler også litt om optimalisering. Om du kjører datasenteret på høygir når omgivelsene rundt har stort behov for vann og strøm også, er det heller ikke gunstig.

– Legg datasentrene der du har mye vann og grønn energi

– Er det måter man kan optimalisere KI på, så de bruker mindre energi eller vann?

– For det første kan du legge datasentrene til steder der du har god tilgang til både vann og grønn energi. Og man kan se det i sammenheng med for eksempel optimalisering av energisystemet, å bruke datasentrene som en slags buffer. Du kan for eksempel lagre overskuddsvarmen fra datasentrene i jorden, og hente ut jordvarmen når det er liten produksjon av elektrisitet. Eller du kan kombinere det med fjernvarme. Og, til slutt kan vi altså prioritere mindre krevende modeller, som bruker færre parametere. Alt man kan gjøre for å holde energibehovet nede, er en fordel.

Det finnes også forskning som viser at det kan være relativt sett mer effektivt med store datasentre som kan optimaliseres bedre. Det kan med andre ord hende at det er bedre å kjøre KI-modeller i få, store datasentre, enn at man bygger opp masse små modeller hist og her.

– Samtidig innebærer vel sentralisering alltid litt risiko?

– I høy grad. Og vi må også huske at KI er langt mer enn språkmodeller, så dette gjelder ikke for alt. Det finnes KI som ikke er veldig beregningskrevende. Finger- eller ansiktsgjenkjenningen som mange bruker til å åpne telefonen sin med, for eksempel. For all del, ChatGPT er gøy, men det er kanksje ikke den typen KI vi trenger mest av. Da er det bedre med KI som kan hjelpe oss med å optimalisere ressursbruken. Og hindre sløsing.

Hindrer våre små, bløte hjerner i å koke over

– Ja, ser du for deg at KI kan bidra til en mer bærekraftig praksis i andre sektorer i fremtiden, selv om det vil koste en del vann og strøm?

– Ja, det vi jobber mye med her på Sintef, for eksempel industrielle modeller. De er gjerne ikke veldig beregningskrevende i bruk. De kan hjelpe til å løse oppgaver innenfor planlegging og logistikk som er for krevende for mennesker å ta på sparket.

Vi jobber for eksempel med å optimalisere samarbeidet mellom dumpere og gravemaskiner ved veibygging. Slik at anleggsmaskinene ikke går så mye på tomgang. Vi ser også på energisystemet: Når vi får mer grønn og væravhengig kraft inn, svinger produksjonen mye. Da blir systemene så komplekse at det kreves KI for å håndtere dem. Produksjon, forbruk og lagring må kombineres i ett system. Her kan en kombinasjon av klassisk optimering og kunstig intelligens gjøre det mer effektivt.

Vi trenger også KI for å la roboter ta over mer tungt manuelt arbeid. Her kommer jo debatten om autonomi og KI og hvor grensene skal gå. Men først må vi huske at mange slike KI-motorer handler bare om å gjøre det mulig å automatisere mer komplekse oppgaver.

– Og ta raske handlingsvalg når det er så mange parametere at våre stakkars menneskehjerner koker over?

– Nettopp. Et eksempel kan være helsesektoren, der man kan la en KI-motor lytte på og tolke samtalen med pasienten, foreslå undersøkelser eller medikamenter og gjøre en del av de mer byråkratiske oppgavene som i dag krever tid og ressurser. Slik at leger og sykepleiere får mer tid til å samhandle med pasientene.

Stableroboten som sparer lastebiler, og mer

– Er det mer dere gjør ved SINTEF som adresserer disse utfordringene?

– Nesten alt vi gjør på SINTEF som handler om KI, tar for seg dette. Jeg nevnte tomgangskjøringen og optimalisering av el-systemet. Vi jobber også med optimering av varmebruk i kommersielle bygg, så man ikke har en sentral som bruker energi på kjøling mens folk skrur opp varmen på kontorene sine. Eller mer kompakt og effektiv stabling av esker på paller så man trenger færre lastebiler.

– Aha, som Tetris i tre dimensjoner?

– Nja, det er mye verre enn det. I Tetris er det begrenset hvilke muligheter du har og åpenbart hva som er effektivt. I virkeligheten har pakkene ulike former og vekt og ulikt innhold som tåler ulik belastning. De kan ikke bare stables så de passer tett inntil hverandre, da kan de velte i bilen. Det er mange parametere og mange granskninger som må gjøres på kort tid. Da passer KI bra. Potensialet er i det hele tatt stort.