Big Tech: massives CO2-Problem wegen KI

Transparenz

Wie heißt es so schön: Wie erfährt man, ob ein Unternehmen bis 2030 kohlenstoffnegativ sein wird? Sie werden es einem selbst erzählen.

Microsoft teilte der Welt seine Umweltschutzversprechen im Jahr 2020 mit und verpflichtete sich, bis zum Ende des Jahrzehnts CO2-neutral zu werden.

Doch noch bevor man „Greenwashing“ sagen konnte, rückte künstliche Intelligenz in den Mittelpunkt – und testete die Stärke der Umwelt-, Sozial- und Governance-Verpflichtungen (ESG) eines jeden Unternehmens.

Seitdem sind viele große Konzerne in die Klemme geraten, indem sie große Klimaversprechen zurückgeschoben haben, um stattdessen auf den KI-Hype-Zug aufzuspringen.

Im Fall von Microsoft sind die Emissionen seit der ursprünglichen Zusage von Satya Nadella im Jahr 2020 um bis zu 40 % gestiegen.

In diesem Artikel untersucht Techopedia, wie ESG-Verpflichtungen durch die weltweite Besessenheit von KI heruntergespielt werden und warum dies eine Rolle spielt.

Wichtigste Erkenntnisse

  • 2020 sicherte Satya Nadella zu, dass Microsoft bis 2030 kohlenstoffneutral sein wird.
  • Seitdem hat KI zu einer Steigerung der Emissionen von Microsoft um bis zu 40 % beigetragen.
  • Schätzungen zufolge verbrauchen die Rechenzentren von Microsoft jährlich über 50 Millionen Gallonen Trinkwasser.
  • Eine ChatGPT-Suche verbraucht 10 Mal mehr Strom als eine Google-Suche.
  • Amazon, Microsoft und Google möchten bis zum Jahr 2030 den Betrieb ihrer Rechenzentren auf Atomstrom umstellen.
  • Atomenergie kann KI-Systeme kontinuierlich mit Strom versorgen und gleichzeitig die Ziele der ökologischen Nachhaltigkeit erreichen.

Warum KI ein Problem für die Klimaziele von Big Tech darstellt

Wussten Sie, dass eine kurze 100-Wörter-Antwort von ChatGPT etwa einen halben Liter Wasser verbraucht?

Da Chatbots wie Microsoft CoPilot der Öffentlichkeit ihre Dienste anbieten, verbrauchen die Rechenzentren von Microsoft in Arizona jedes Jahr schätzungsweise über 50 Millionen Gallonen Trinkwasser.

Der Durst ist unstillbar, und dieser Wasserverbrauch wird in den heißen US-Bundesstaaten, die bereits mit Wasserknappheit zu kämpfen haben, zu einem Problem.

Derzeit hat ChatGPT über 200 Millionen aktive Nutzer wöchentlich. Es sollte daher nicht überraschen zu hören, dass der Wasserverbrauch von KI bis 2027 6,6 Milliarden m³ erreichen könnte.

Um diese Zahl ins rechte Licht zu rücken: Das ist etwa die Hälfte der Menge, die das Vereinigte Königreich jährlich benötigt.

Jede ChatGPT-Suche verschlingt 2,9 Wattstunden Strom – fast 10 Mal mehr als eine normale Google-Suche. In einigen Bundesstaaten wie Virginia verbrauchen Rechenzentren über 25 % der Energie, was die ohnehin schon überforderten Stromnetze zusätzlich belastet.

Nach Prognosen von Gartner werden bis zum Jahr 2027 40 % der KI-Rechenzentren durch Stromengpässe eingeschränkt sein, sollte der eingeschlagene Weg ohne wesentliche Änderungen fortgesetzt werden.

Während Big Tech weiterhin das Ausmaß des Problems herunterspielt, berichtete The Guardian, dass die Emissionen von Rechenzentren um 662 % höher sein könnten, als einige Tech-CEOs uns glauben machen wollen.

Ist Kernenergie die Lösung für den Energiebedarf von KI?

Amazon und Google sind kürzlich auf dem Radar von Techopedia aufgetaucht, nachdem sie angekündigt hatten, ihre KI-Ambitionen mit Hilfe der Atomkraft voranzutreiben.

Natürlich könnte dies für PR-Teams ein schwieriges Unterfangen sein, vor allem wenn es um die öffentliche Sicherheit geht. Aber dieser Ansatz hat seine Vor- und Nachteile.

Einer der wichtigsten Gründe, warum sich Big Tech zur Kernenergie hingezogen fühlt, ist die Tatsache, dass sie kaum Treibhausgase erzeugt.

Sie löst zwei Probleme zum Preis von einem: Sie bietet eine zuverlässige Möglichkeit, die anspruchsvollen KI-Systeme kontinuierlich mit Strom zu versorgen und gleichzeitig die Ziele der ökologischen Nachhaltigkeit zu erfüllen.

Im Gegensatz zu Solar- oder Offshore-Windanlagen ist die Atomkraft nicht vom Wetter abhängig.

Mit kleinen modularen Reaktoren (Small Modular Reactors, SMR) können Kernkraftwerke auch in der Nähe oder innerhalb von Rechenzentren betrieben werden, was die Übertragungsverluste drastisch reduziert.

Kernreaktoren sind deutlich kleiner und erzeugen 50 bis 300 Megawatt Strom, verglichen mit 1.000 Megawatt bei herkömmlichen Großkraftwerken.

Außerdem haben sie eine einfachere Konstruktion mit weniger beweglichen Teilen, was die Wahrscheinlichkeit von Ausfällen minimiert.

Nach dem Bau könnten Atomanlagen auch stabile Betriebskosten und einen besseren Schutz vor den schwankenden Preisen für fossile Brennstoffe bieten. Wo ist also der Haken?

Kleine Reaktoren, große Verantwortung

Big Tech hat nicht den besten Ruf, wenn es um das Change Management geht.

Wir haben alle gesehen, wie eine Konfigurationsänderung oder ein Software-Update die Läden eines jeden Einzelhändlers auf der Welt zum Einsturz bringen kann.

Doch wenn bei der Kernkraft ein Fehler passiert, steht viel mehr auf dem Spiel.

Es gibt drei große Beispiele für Kernschmelzen: Three Mile Island im Jahr 1979, Tschernobyl im Jahr 1986 und Fukushima im Jahr 2011, die immer im Hinterkopf bleiben werden, wenn jemand das Wort Atomkraft erwähnt.

Die Nachricht, dass Microsoft eine Vereinbarung zur Wiederbelebung einer Einheit des Kraftwerks von Three Mile Island getroffen hat, wird einige Alarmglocken schrillen lassen, ob sie nun berechtigt sind oder nicht.

Trotz aller Sicherheitsvorkehrungen gehen die Kosten eines Fehlers in der Vergangenheit zu Lasten der Umwelt und der Anwohner, die gezwungen sind, aus den betroffenen Gebieten zu fliehen.

Die Wiederherstellung des Vertrauens in die Atomenergie wird verständlicherweise Zeit brauchen.

Allen Versprechungen zum Trotz handelt es sich bei SMR-Konstruktionen um noch unerprobte Technologien, bei denen Fragen zur langfristigen Leistung und Zuverlässigkeit unbeantwortet bleiben.

Fünf große Hürden blockieren den Weg der Kernenergie: Abfallentsorgung, milliardenschwere Konstruktionskosten, bürokratische Vorschriften, Ängste der Öffentlichkeit und jahrzehntelange Bauzeiten.

Auf dem Papier minimieren das kleinere Brennstoffinventar und die geringere Leistung von SMR die potenzielle Freisetzung von Radioaktivität im Falle eines Unfalls, und sie sind so ausgelegt, dass sie extremen Ereignissen, einschließlich Naturkatastrophen, standhalten, ohne schädliche Strahlung freizusetzen.

Aber diese Zusicherungen werden nicht bei jedem ankommen.

Fazit

Angesichts der steigenden Nachfrage nach KI prognostiziert das Electric Power Research Institute, dass sich der Strombedarf von Rechenzentren bis 2030 verdoppeln und bis zu 9 % des US-Stroms verbrauchen wird.

Sollte sich der Klimawandel fortsetzen, könnte sich das Problem mit jeder KI-Suche verschärfen, und der steigende Bedarf an Klimaanlagen, die unsere Häuser kühl halten, wird den Planeten ironischerweise noch heißer machen.

Amazon, Microsoft und Google teilen die Überzeugung, dass die Kernenergie den Staffelstab übernehmen und die wachsende Energienachfrage von KI-Rechenzentren decken wird.

Die Frage ist jedoch noch offen, ob sie dieses Versprechen einhalten können oder ob das Problem dadurch nur weiter verschoben wird. Wie viel Spielraum wir noch haben, ist eine Debatte für einen anderen Tag.

Verwandte Begriffe

In Verbindung stehende Artikel

Neil C. Hughes
Tech Journalist
Neil C. Hughes
Tech Journalist

Neil ist ein freiberuflicher Tech-Journalist mit über zwei Jahrzehnten IT-Erfahrung. Er wurde als einer der Top Voices in Technology von LinkedIn gefeiert und vom CIO Magazine und ZDNet für seine einflussreichen Einblicke anerkannt. Neil hat für Publikationen wie INC, TNW, TechHQ und Cybernews geschrieben und moderiert außerdem den beliebten Tech Talks Daily Podcast.