
Rødglødende grafikkort i kæmpe datacentre
Der er næppe tvivl om, at behovet for massive mængder regnekraft og ikke mindst et kolossalt energiforbrug er nogle af de store udfordringer ved AI.
Datacentrene, hvor modeller som GPT 4, Llama, Claude og Gemini bliver trænet, er på det nærmeste rødglødende allerede, og kravet om stadig flere GPU'er med stadig flere processorer bliver nok ikke mindre lige med det samme.
Men hvorfor er det egentlig, at machine learning, deep learning og generativ AI kræver så meget processorkraft, og er der noget der tyder på at det vil ændre sig?
Det har jeg spurgt professor Søren Hauberg fra DTU Compute om.
Lyt med! 🤖
LINKS
Datacentrene, hvor modeller som GPT 4, Llama, Claude og Gemini bliver trænet, er på det nærmeste rødglødende allerede, og kravet om stadig flere GPU'er med stadig flere processorer bliver nok ikke mindre lige med det samme.
Men hvorfor er det egentlig, at machine learning, deep learning og generativ AI kræver så meget processorkraft, og er der noget der tyder på at det vil ændre sig?
Det har jeg spurgt professor Søren Hauberg fra DTU Compute om.
Lyt med! 🤖
LINKS
NYHEDER
- Disney og Universal sagsøger Midjourney for ophavsret | BBC
- BBC truer AI-firma med retssag over uautoriseret brug af indhold | BBC
- Metas AI-model kan gengive næsten halvdelen af Harry Potter | Ars Technica
- Forsknings-artiklen om AI-citater fra bøger | arXiv
- Meta satser 15 milliarder dollars på AGI | The Verge
- Metas Scale AI-aftale får kunder som Google og OpenAI til at stoppe projekter | Business Insider
- Klarnas direktør som AI-klon på firmaets telefon-hotline | The Verge
AI COMPUTE