Der Energieverbrauch der künstlichen Intelligenz von Google kann ein Niveau erreichen, das mit dem von ganz Irland vergleichbar ist. Sie haben es im Titel gelesen, ich wiederhole es hier: Die Zahlen sprechen für sich. Während sich die KI weiterentwickelt und ausdehnt, steht die Branche vor einer unerschwinglichen Energieherausforderung.
Je mehr Technologieunternehmen KI weiterentwickeln und in ein breites Spektrum an Diensten integrieren, von der einfachen Suchmaschine bis hin zu den komplexesten Anwendungen, desto mehr wird der damit verbundene Energieverbrauch zu einem entscheidenden Thema. Die Frage ist: Wie kommen wir da raus?
Der Aufstieg kundenspezifischer KI-Chips
Der Trend ist klar und nimmt zu: KI-Unternehmen entwickeln ihre eigenen Chips, um den immer anspruchsvolleren Systemanforderungen gerecht zu werden. Riesen mögen Google e Amazon Sie haben bereits ihre eigenen benutzerdefinierten KI-Chips. Und sie sind nicht die Einzigen: Es gibt hartnäckige Gerüchte darüber Microsoft wird möglicherweise nächsten Monat seine Chip-Hardware vorstellen.
Auch Microsoft selbst hat stark investiert OpenAI, das sich laut einigen Quellen in einem frühen Stadium der Entwicklung eigener Chips befindet oder die Übernahme eines Halbleiterunternehmens zur Herstellung dieser Chips erwägt.
Doch was bedeutet das alles für unseren Planeten? Es bedeutet, dass es da sein wird eine deutliche Steigerung im Energie-Fußabdruck der KI-Industrie.
Der Energie-Fußabdruck der KI-Industrie
Ich sage es einfach: Wenn generative KI in jede Google-Suche integriert wird, wird der Energiebedarf des Unternehmens unglaubliche Höhen erreichen. In einem auf Joule veröffentlichten Artikel (Ich verlinke es hier), schätzen Forscher, dass die Integration eines Chatbots ähnlich ist ChatGPT bei jeder Suche, die Google anfordern würde bis zu 512,820 NVIDIA A100 HGX-Server. In Zahlen übersetzt? Es bedeutet darüber hinaus 4 Millionen GPUs. Rechnen Sie nach: Bei einem Energiebedarf von 6,5 kW pro Server läge der tägliche Stromverbrauch bei 80 GWh, der Jahresverbrauch bei 29,2 TWh. Sie gehören einer ganzen Nation wie Irland.
Wenn KI mehr „trinkt“.
KI-Tools haben eine erste Ausbildungsphase gefolgt von a Inferenzphase. Während die Trainingsphase die energieintensivste ist und bisher im Mittelpunkt der KI-Nachhaltigkeitsforschung stand, ist die Inferenzphase die Phase, in der diese Tools Ergebnisse auf der Grundlage der Daten generieren, auf denen sie trainiert wurden.
Diese oft übersehene Phase verdient absolute Aufmerksamkeit. Denn diese Phase wird dramatisch zunehmen und am Ende die vorherige übertreffen. Schätzungen zum „Energiehunger“ verschiedener Systeme der künstlichen Intelligenz müssen überarbeitet werden.
Wir können es uns nicht leisten, den Energieverbrauch dieser Systeme zu ignorieren, technologischer Fortschritt und Umweltverantwortung müssen in Einklang gebracht werden: Nur so können wir der Technologie eine echte Chance geben, unsere Zukunft zu verbessern.