https://www.doorbraak.eu/kapitalistisch ... mp-deel-3/Verbruik van hulpbronnen
EnergieMisschien wel het grootste probleem met de huidige verspreiding van generatieve AI in chatbots en beeldgeneratoren is hun enorme verbruik van hulpbronnen. In 2010 was het nog mogelijk om een AI te trainen op een standaard notebook, terwijl hiervoor tegenwoordig speciale computers met vele duizenden grafische kaarten (GPU’s) worden gebruikt.
Twaalf procent van het wereldwijde energieverbruik is toe te schrijven aan digitale toepassingen; iets meer dan de helft hiervan (zes tot acht procent) komt voor rekening van grote datacenters. Die kunnen nauwelijks gelijke tred houden met de AI-hausse. Volgens het hoofd van HPE kunnen datacenters over vijf jaar twintig procent van alle energie ter wereld verbruiken. Het trainen van AI-modellen verbruikt meer energie dan elk ander computerwerk. Deze ontwikkeling is pas echt van de grond gekomen sinds 2019, toen GPT-2 werd gepubliceerd; dat werkte met zes miljard parameters. Het algoritme van GPT-3 omvat 175 miljard parameters. GPT-4 werkt met 1,7 biljoen parameters. Elk nieuw model verhoogt de parameters met een factor 10, maar het energieverbruik groeit exponentieel met de hoeveelheid verwerkte gegevens. Alleen al de laatste trainingsronde van GPT-3 verbruikte 189 megawattuur energie, wat overeenkomt met ongeveer negen keer de jaarlijkse CO₂-uitstoot per hoofd van de bevolking van Duitsland. En voor elk model dat daadwerkelijk online gaat, waren er honderden die van tevoren werden weggegooid.
We zien dus, dat zoiets fantastisch een ware ramp kan worden.
We zouden er wat op moeten bedenken.
Ik gebruik het ook wel. Maar ik probeer dat bewust. zo weinig mogelijk te doen, wat wel lukt.
Maar dat is niet meer de moniale praktijk...