
Algoritmerne bliver mere effektive, men strømforbruget stiger
Som de fleste nok ved efterhånden, så koster det kolossale mængder af strøm, vand og ressourcer, når millioner af mennesker hver dag laver milliarder af prompts på ChatGPT, Copilot, Claude og de andre chatbots.
Et af problemerne med at tackle udfordringen er dog, at vi faktisk ikke ved hvor meget strøm, vand og materiale, techgiganterne bruger på at lade os skrive rapporter og lave billeder og sætte agenter til at lave vores arbejde for os.
For nylig udgav Google dog en teknisk rapport, der beskriver, hvor meget energi deres Gemini-apps bruger til hver enkelt forespørgsel.
Og ifølge rapporten bruger en medianforespørgsel til Gemini 0,24 watt-timer elektricitet, hvilket svarer til at køre en standardmikrobølgeovn i cirka et sekund.
Her kan man jo godt tænke, at pft – et sekund med en mikrobølgeovn per forespørgsel, det er jo ingenting! Problemet er jo bare, at stadig flere bruger AI stadig mere – så alt i alt kan det stadig komme til at koste stigende mængder af strøm, og har i øvrigt en masse andre afledte konsekvenser.
Derfor er der også nogen der hejser det røde flag, og beder om refleksion og regulation. En af dem er Raghavendra Selvan, der er lektor på Datalogisk Institut på Københavns Universitet.
Han har været medforfatter på adskillige artikler om algoritme-effektivitet, CO2-aftryk og bæredygtighed, og er også ved at lægge sidste hånd på en bog om udfordringerne – og ikke mindst hvad vi kan gøre for at tackle problemerne.
Lyt med 🤖
LINKS
Et af problemerne med at tackle udfordringen er dog, at vi faktisk ikke ved hvor meget strøm, vand og materiale, techgiganterne bruger på at lade os skrive rapporter og lave billeder og sætte agenter til at lave vores arbejde for os.
For nylig udgav Google dog en teknisk rapport, der beskriver, hvor meget energi deres Gemini-apps bruger til hver enkelt forespørgsel.
Og ifølge rapporten bruger en medianforespørgsel til Gemini 0,24 watt-timer elektricitet, hvilket svarer til at køre en standardmikrobølgeovn i cirka et sekund.
Her kan man jo godt tænke, at pft – et sekund med en mikrobølgeovn per forespørgsel, det er jo ingenting! Problemet er jo bare, at stadig flere bruger AI stadig mere – så alt i alt kan det stadig komme til at koste stigende mængder af strøm, og har i øvrigt en masse andre afledte konsekvenser.
Derfor er der også nogen der hejser det røde flag, og beder om refleksion og regulation. En af dem er Raghavendra Selvan, der er lektor på Datalogisk Institut på Københavns Universitet.
Han har været medforfatter på adskillige artikler om algoritme-effektivitet, CO2-aftryk og bæredygtighed, og er også ved at lægge sidste hånd på en bog om udfordringerne – og ikke mindst hvad vi kan gøre for at tackle problemerne.
Lyt med 🤖
LINKS
SIDEN SIDST
- AI-forlig: Anthropic betaler forfattere 1,5 milliarder dollars
- Dommer sætter Anthropics bogpirat-forlig på pause
- Ny crawler-standard skal få AI-virksomheder til at betale
- Ordbøger og leksika sagsøger Perplexity
- Franske Mistral sikrer sig €1,7 milliarder i ny finansieringsrunde
EFFEKTIVITET OG BÆREDYGTIGHED
- Raghavendra Selvan på LinkedIn
- Google frigivet data om den energi en AI-forespørgsel bruger
- Raghav artikel: Bæredygtig AI?
- Raghav artikel: Effektivitet er ikke nok: En kritisk perspektiv på miljømæssigt bæredygtig AI
- Raghav artikel: Klimabevidsthed og ressourcebevidsthed er afgørende for at opnå bæredygtig AI (CARAML)
- Kan AI-systemer gøre mere grønne med softwareudvikling?
- AIDK 10 – er AI en klimasynder?
- AIDK 49 – om datacentrenes energiforbrug