Rødglødende grafikkort i kæmpe datacentre

Rødglødende grafikkort i kæmpe datacentre

Der er næppe tvivl om, at behovet for massive mængder regnekraft og ikke mindst et kolossalt energiforbrug er nogle af de store udfordringer ved AI.

Datacentrene, hvor modeller som GPT 4, Llama, Claude og Gemini bliver trænet, er på det nærmeste rødglødende allerede, og kravet om stadig flere GPU'er med stadig flere processorer bliver nok ikke mindre lige med det samme.

Men hvorfor er det egentlig, at machine learning, deep learning og generativ AI kræver så meget processorkraft, og er der noget der tyder på at det vil ændre sig?

Det har jeg spurgt professor Søren Hauberg fra DTU Compute om.

Lyt med! 🤖

LINKS
NYHEDER
AI COMPUTE
© 2021 aidenmark.dk