This post was originally published on Reset
Rechenzentren werden oft als das Herz, Rückgrat oder auch Bottleneck der Digitalisierung bezeichnet. Ob wir sie nun als lebenswichtiges Organ, zentrale Knochenstruktur oder Nadelöhr bezeichnen – alle Vergleiche weisen darauf hin, dass ohne Rechenzentren nichts geht in der digitalen Welt. Jedes Video, das wir streamen, jede Suchanfrage, die wir losschicken, jeder Clouddienst, den wir nutzen, alle Online-Aktivitäten werden hier verarbeitet.
Die alle Lebensbereiche durchdringende Digitalisierung führt dazu, dass Rechenzentren weltweit wie Pilze aus dem Boden schießen. Das Rennen um die schnellstmögliche Verarbeitung unserer Daten ist in vollem Gange. Das ist nicht folgenlos. Der Stromverbrauch von Rechenzentren nimmt rasant zu und führt zu steigenden Emissionen. Dazu kommt, dass sie enorme Mengen Wasser verbrauchen und schnell veraltete Server den Berg an Elektroschrott weiter wachsen lassen.
Bisher galt, dass die Herstellung unserer Geräte den größten Anteil an den CO2-Emissionen der Digitalisierung verantwortet. Doch das scheint sich aktuell zu ändern. Nicht zuletzt durch die „KI-isierung“ sämtlicher Bereiche sind Rechenzentren auf der Überholspur. Dass sie in den nächsten Jahren bei den CO2-Emissionen in Führung gehen, ist mittlerweile Konsens. Auch für Dr. Ralph Hintemann ist das klar. Er ist Gesellschafter und Senior Researcher am Borderstep Institut für Innovation und Nachhaltigkeit in Berlin, ein wesentlicher Schwerpunkt seiner Arbeit liegt auf der nachhaltigen Gestaltung von Rechenzentren.
Im Interview haben wir Ralph Hintemann gefragt, woraus sich eigentlich die CO2-Emissionen von Rechenzentren zusammensetzen und woher der hohe Wasserverbrauch kommt. Wir haben uns darüber unterhalten, wieso vor allem KI-Server eine so kurze Lebensdauer haben, was das Potenzial der Abwärmenutzung ist und warum Kommunen eine wichtige Rolle für nachhaltigere Rechenzentren spielen könnten. Und der Researcher nennt wesentliche Stellschrauben für nachhaltigere Rechenzentren.
RESET: Warum sind Rechenzentren so entscheidend für eine nachhaltige Digitalisierung?
Ralph Hintemann: Wenn man sich Digitalisierung anschaut, dann kann man die drei Bereiche Rechenzentren, Telekommunikationsnetze und Endgeräte unterscheiden. In der Vergangenheit war es so, dass die Endgeräte den Ressourcenbedarf massiv dominiert haben. 2020 haben wir bei einer Untersuchung noch festgestellt, dass Netze und Rechenzentren zusammen weniger als ein Drittel an den gesamten CO2-Emissionen der Digitalisierung ausmachten. Die Endgeräte hatten dagegen einen Anteil von mehr als zwei Dritteln.
Aber das wandelt sich jetzt. Videostreaming, Handynutzung und ganz viele Apps, die wir privat nutzen, basieren auf Diensten, die in Rechenzentren laufen. Vor allen Dingen braucht aber die Produktion und Steuerung in Unternehmen Rechenzentren. Und da haben wir einen massiven Anstieg.
Die Internationale Energieagentur sagt, dass sich der Stromverbrauch der Rechenzentren bis zum Jahr 2030 wahrscheinlich mehr als verdoppeln wird. Das ist ein enormes Wachstum. Und deshalb werden Rechenzentren auf Dauer der dominierende Faktor der CO2-Emissionen der Digitalisierung sein. Bei Endgeräten ist die Entwicklung seit Jahren eigentlich so, dass die Geräte immer weniger Strom verbrauchen. Rechenzentren laufen dagegen 24 Stunden am Tag, 365 Tage im Jahr durchgehend und verbrauchen deshalb sehr viel Strom.
Aktuell dominiert aber noch die Herstellung der Geräte die CO2-Emissionen, oder?
Ja, aktuell gehen wir noch davon aus, dass die Endgeräte für mehr CO2-Emissionen als Rechenzentren verantwortlich sind. Aber die Rechenzentren wachsen massiv. Selbst die EU hat jetzt das Ziel angegeben, die Rechenzentrum-Kapazitäten in Europa in den nächsten fünf bis sieben Jahren zu verdreifachen. Und das könnte dann auch dreimal so viel Strom bedeuten. Wenn das so kommt, wird es nicht lange dauern, bis die CO2-Emissionen der Endgeräte überholt sind.
Der schnell steigende Bedarf an Rechenzentren hat vor allem mit dem KI-Boom zu tun, oder?
Auch ohne KI haben wir ein starkes Wachstum im Rechenzentrumbereich, denn wir digitalisieren die Produktion und die Verwaltung. Und auch privat nutzen wir immer mehr digitale Dienste. Aber man geht davon aus, dass KI das ganze Wachstum nochmal beschleunigt und dass wir in Zukunft vor allen Dingen auch KI-bedingt noch einen deutlich höheren Energie- und Ressourcenbedarf durch Rechenzentren haben werden.
Wie groß ist denn der aktuelle Energiebedarf von KI?
Man spricht immer allgemein von KI, aber es gibt viele unterschiedliche KI-Anwendungen. Es gibt Anwendungen, die auf dem Smartphone oder Laptop laufen und damit gar nicht viel Strom verbrauchen können. In einem Projekt versuchen wir gerade, die Abwärmenutzung von Rechenzentren mithilfe von KI zu optimieren. Und die Modelle, die wir da verwenden, die werden auf dem Laptop programmiert.
Wenn wir heute von KI sprechen, dann haben wir meistens die großen Sprachmodelle, Large Language Models wie Chat-GPT und Bild- oder Videogenerierungsmodelle im Kopf. Und diese brauchen tatsächlich enorme Mengen an Ressourcen.
Es gibt eine Studie aus den USA, wo ja die meisten großen Tech-Konzerne sitzen. Da machen KI-Anwendungen schon heute ungefähr die Hälfte des Stromverbrauchs der Rechenzentren aus. Weltweit belegt KI ungefähr 20 Prozent der Rechenzentrumskapazitäten. Um das zu vergleichen: Wir verbrauchen für KI weltweit aktuell ungefähr so viel Strom wie ganz Holland im Jahr. In Deutschland haben wir dagegen praktisch bislang außerhalb der Forschung keine großen KI- Rechenzentren.
Infobox Prognosen KI IWF/ EU plant Gigafactories
Heißt das, dass Large Language Models (LLM) in speziellen Rechenzentren trainiert werden?
Ja, für das Training und nachher auch die Nutzung von LLM brauche ich speziell designte Rechner, die GPUs, also Grafikprozessoren, nutzen. Der Hersteller Nvidia ist damit zu einem der wertvollsten Unternehmen weltweit aufgestiegen. Ich könnte LLM auch auf normaler Hardware trainieren, aber das ist nicht effizient.
Die Grafikprozessoren brauchen allerdings auch sehr viele Ressourcen – vor allem Strom. Und das ist nicht das einzige Problem. Die GPUs werden nicht so lange genutzt wie klassische Server. Während andere Server typischerweise sechs Jahre oder länger laufen, werden die KI-Server nach unseren Informationen meistens schon deutlich schneller ausgetauscht. Und das führt zu einem immer höheren Ressourcenverbrauch.
Warum haben KI-Server eine so kurze Lebensdauer?
Also, früher gab es viele, vor allem große Rechenzentren, die ihre klassischen Server auch schon nach zwei, drei Jahren ausgetauscht haben. Heute werden sie deutlich länger genutzt. Das liegt auch daran, dass Hardware natürlich Geld kostet und man den notwendigen Ausbau an Rechenleistung gar nicht nur mit neuer Hardware hinbekommen hätte. Dazu wurden dann auch die Konzepte umgestellt. Zum Beispiel, dass Rechenprozesse, die nicht so viel Leistung brauchen, auf die ältere Hardware verlagert werden. Glücklicherweise gibt es mittlerweile auch immer mehr Unternehmen, die sich darauf spezialisiert haben, ausgemusterte Server zu refurbishen und dann wieder für weniger performante Anwendungen zu verkaufen. Heute rechnen wir für klassische Server mit einer Nutzungsdauer von durchschnittlich sechs Jahren und mehr.
KI-Server werden dagegen oft schneller ausgetauscht, weil die Performance, also die Leistungsanforderungen in diesem Bereich massiv ansteigen. Die KI-Modelle werden immer größer und benötigen immer mehr Rechenleistung. Deshalb wird schneller ausgetauscht.
Aber tut sich noch so viel bei der Leistungssteigerung von Servern?
Es gibt so eine Gesetzmäßigkeit, die nennt sich Moore’s Law. Das war einer der Gründer von Intel, der festgestellt hat, dass sich die Zahl der Transistoren pro Chip ungefähr alle anderthalb bis zwei Jahre verdoppelt. Die Strukturen auf den Mikrochips wurden also immer kleiner und damit die Rechenleistung immer größer. Diese Gesetzmäßigkeit hat über Jahrzehnte gegolten.
Jetzt kommen wir seit einigen Jahren an Grenzen. Wir kommen bei den Mikrochips in Größenordnungen, da geht es kaum noch kleiner. Deshalb spricht man schon länger von dem Ende von Moore’s Law. Und wir können auch an neuen Chips feststellen, dass sich die Performance nicht mehr so schnell erhöht.
Das führt aber aktuell nicht dazu, dass die Rechenleistung insgesamt langsamer ansteigt. Die zunehmende Digitalisierung und der KI-Trend brauchen immer schneller wachsende Rechenleistung. Und daher steigt dann auch der Ressourcenbedarf immer mehr an. Das Ende von Moore’s Law hat damit den Effekt, dass es das Wachstum der Rechenzentren noch beschleunigt.
Wenn wir davon sprechen, dass Server ausgetauscht werden, dann geht es dabei um Unmengen an Elektroschrott, oder? Rechenzentren sind ja riesige Gebäude, in den Serverschränke in langen Gängen stehen. Werden die kompletten Serverschränke jeweils durch neue ersetzt oder nur einzelne Komponenten ausgetauscht?
In den Schränken sind die Server und natürlich auch Netzwerk- und Speichertechnik. Und ja, diese Technik wird typischerweise komplett ersetzt. Das ist ähnlich wie auch bei unseren PCs und anderen Geräten. Man kann vielleicht mal eine Festplatte austauschen, aber das ist nicht die Standard-Vorgehensweise. Typischerweise werden die Geräte komplett ersetzt.
Bei Rechenzentren nimmt der Trend zu, die Server nicht einfach nur stofflich zu recyceln, sondern sie einer Weiterverwertung zuzuführen. Wie schon erwähnt, gibt es immer mehr Unternehmen, die sich dem Thema Server-Refurbishment annehmen. Dabei bekommt ein Server beispielsweise mehr Arbeitsspeicher und eine neue Festplatte und kann noch einige Jahre genutzt werden.
Das stoffliche Recycling von Servern ist dagegen schwierig, da in den Geräten viele unterschiedliche Elemente verbaut sind. Diese bekommen wir aktuell mit unseren Recyclingverfahren kaum voneinander getrennt.
Was sollte neben einem verstärkten Refurbishment noch getan werden, damit Server länger genutzt werden?
Der Leistungsbedarf der Digitalisierung wird immer weiter zunehmen. Und selbst mit effizienteren Servern werden einfach immer mehr gebraucht. Aber wir müssen natürlich alles tun, damit das besser wird. Eine Möglichkeit ist das Refurbishment. Eine weitere ist eine kaskadierende Nutzung. Das heißt, dass ich für Anwendungen, die eine sehr hohe Leistung brauchen, die neuen Server nutze, und die älteren Server für Anwendungen mit geringen Leistungsanforderungen. Das Prinzip kennt wahrscheinlich jeder von zu Hause. Für bestimmte Sachen funktioniert zum Beispiel auch ein altes Smartphone oder ein alter Laptop.
Diese Nutzungsform wird momentan aber kaum umgesetzt. Typischerweise werden Server gekauft und nach einer bestimmten Zeit einfach ausgetauscht. Ein Hemmnis ist hier, dass viele Serverhersteller in ihren Vertragsbedingungen oft nur für fünf Jahre Support anbieten. Viele Betreiber tauschen daher standardmäßig nach fünf Jahren aus, obwohl die Server vielleicht auch sieben Jahre oder länger hätten laufen können. Man muss an solche Strukturen ran, denn warum sollte ein Serverhersteller nicht auch sieben Jahre Ersatzteile oder Updates anbieten können?
Es gibt noch einen weiteren Aspekt, der stark kritisiert wird: Der hohe Wasserverbrauch von Rechenzentren. Weltweit regen sich immer mehr Proteste gegen geplante Rechenzentren aufgrund ihres großen Durstes.
Der Wasserverbrauch ist ein komplexes Thema, weil Rechenzentren auf drei verschiedene Weisen Wasser verbrauchen. Erstens braucht die Produktion der IT sehr viel Wasser. Dazu gibt es allerdings bisher wenig Informationen und auch noch kaum Bewusstsein.
Der zweite Bereich, der aktuell wohl den höchsten Wasserverbrauch verursacht, ist indirekt über den Stromverbrauch der Rechenzentren. Strom wird nämlich oft produziert, indem Wasser in Öl-, Gas-, Kohle- oder Atomkraftwerken verdampft wird. Die haben ja diese riesigen Kühltürme und verbrauchen darüber viel Wasser.
Und dann gibt es den dritten Bereich, den Wasserverbrauch in den Rechenzentren selbst. Hier wird es vor allem für eine effiziente Kühlung genutzt. Wenn wir im Sommer schwitzen, dann verdunstet das Wasser auf unserer Haut und erzeugt Kühlung. Und genau das passiert auch in Rechenzentren. Die Server werden durch Wasserverdunstung gekühlt, was Energie spart.
Der Wasserverbrauch für die Kühlung kann enorm sein. Das kann über eine Milliarde Liter pro Jahr sein, die ein Rechenzentrum an Wasser benötigt. Da stellt sich natürlich die Frage, was das für Wasser ist. Sauberes Trinkwasser, aufgefangenes Regenwasser oder Brauchwasser. Dann ist die Frage, in welcher Gegend ich das Wasser verbrauche. Wenn ausreichend Wasser zur Verfügung steht, kann es aus ökologischer Sicht sogar sinnvoll sein, mit Wasser zu kühlen. Wenn ich aber in einer Gegend bin, wo Wasser knapp ist, dann muss ich aus ökologischer Sicht überlegen, ob das die richtige Art der Kühlung ist.
Technisch ist es leider so, dass in Gegenden mit einer trockenen Luft und hohen Temperaturen die Verdunstungskühlung am besten funktioniert, weil das Wasser dann sehr effektiv verdunstet. In solchen Gegenden ist aber oft das Wasser knapp. In Gegenden mit einer hohen Luftfeuchtigkeit und niedrigen Temperaturen ist Verdunstungskühlung weniger effektiv und wird daher dort nicht so häufig eingesetzt.
Was für Möglichkeiten haben wir, um den Wasserverbrauch von Rechenzentren zu senken?
Also, grundsätzlich braucht ein Rechenzentrum direkt nur für eine bestimmte Kühltechnologie große Mengen Wasser, die Verdunstungskühlung. Aber ich muss nicht damit arbeiten.
Gerade in Deutschland gibt es viele Rechenzentren, die nicht auf Verdunstungskühlung setzen. Das liegt auch daran, weil sich so eine Verdunstungskühlung in unserem Klima nicht so lohnt wie in einem trockenen, heißen Klima. Aus unseren Untersuchungen wissen wir, dass nur ungefähr 30 bis 40 Prozent der Rechenzentren in Deutschland Verdunstungskühlung nutzen.
Aus meiner Sicht sollte man diese Art der Kühlung auch nur da verwenden, wo ausreichend Wasser zur Verfügung steht. Und dann am besten kein hochwertiges Trinkwasser nutzen, sondern aufgefangenes Regenwasser oder Grauwasser. Wo Wasser knapp ist, sollte ohne Wasserverbrauch gekühlt werden.
Warum nutzen die meisten Rechenzentren kostbares Trinkwasser und nicht Grau- oder Regenwasser?
Das ist hauptsächlich eine Kostenfrage. Man kann auch anderes Wasser nutzen, aber das muss dann gereinigt werden. Das ist technisch aufwendiger und erzeugt wieder Kosten.
Was wäre denn eine andere effiziente und nachhaltige Kühltechnologie?
Da gibt es viele verschiedene Ansätze für effiziente Kühlung – zum Beispiel mit Hilfe von Flüssigkeit oder Wasser in einem geschlossenen Kreislauf. Andere Themen sind die direkte freie Kühlung oder die Verwendung von höheren Temperaturen im Rechenzentrum.
Wir haben auf RESET schon über mit Serverwärme beheizte Schwimmbäder berichtet. In Stockholm wird außerdem bereits ein ganzer Stadtteil mit Abwärme aus einem Rechenzentrum versorgt. Wie skalierbar sind diese Lösungen? Und sind sie wirklich hilfreich, um die Umweltauswirkungen von Rechenzentren einzugrenzen?
Die Abwärmenutzung von Rechenzentren ist ein Thema, das in Deutschland und überhaupt in Mitteleuropa in Zukunft eine große Rolle spielen wird. Wir haben dieses enorme Wachstum der Rechenzentren. Und rein physikalisch passiert nichts anderes, als dass darin Strom in Wärme umgewandelt wird. Und dabei wird Rechenleistung produziert.
Gleichzeitig haben wir in Deutschland und in ganz Mitteleuropa das Thema der Wärmewende, weil unsere Wärmeversorgung stark auf den fossilen Energieträgern Öl und Gas beruht. Da liegt es natürlich nahe, den großen Wärmeproduzenten mit der Energiewende zu kombinieren.
Aus meiner Sicht ist es eine ökologische Notwendigkeit, so viel Abwärme wie möglich aus Rechenzentren zu nutzen. Dass wir das in der Vergangenheit nicht getan haben, lag vor allem daran, dass Öl und Gas verhältnismäßig günstig waren. Da war es einfach billiger, Öl und Gas zu verbrennen, um Wärme zu erzeugen, anstatt Rechenzentren an Wärmenetze anzuschließen und die Wärme aufwendig aufzubereiten. Denn ich muss eine Wärmepumpe betreiben, um die niedrigere Temperatur der Wärme aus Rechenzentren so anzuheben, dass ich damit Wohnungen beheizen kann. Und dafür brauche ich wieder Strom.
In Skandinavien waren die Rahmenbedingungen anders, gerade in Schweden. Da gab es viel mehr Fernwärmenetze als bei uns und dazu einen sehr niedrigen Strompreis. Damit lohnt sich der Betrieb einer Wärmepumpe schnell und man kann damit viel kostengünstiger Wärme aus Rechenzentren nutzen und verteilen.
Aber das ändert sich jetzt auch bei uns.
Ja, es ist absehbar, dass Öl und Gas teurer werden und wir müssen unsere Wärmenetze ausbauen. Und es gibt neue, große Wärmepumpen, mit denen ich leichter die Wärme aus Rechenzentren aufbereiten kann. Deshalb gibt es jetzt auch mehr Abwärme-Projekte in Deutschland. Aber wir stehen da noch am Anfang.
Das heißt, dass wir bei der Abwärmenutzung von Rechenzentren noch in der Prototypenphase sind? Oder woran liegt es, dass sie noch nicht Standard ist?
Ich würde nicht von Prototypen sprechen, sondern es geht aktuell um die Umsetzung. Für die Abwärmenutzung brauche ich keine Innovationen mehr, das ist schon bewährte Technik.
Wir fangen jetzt an, mehr Abwärmenutzung umzusetzen, aber das dauert natürlich immer eine gewisse Zeit. Es gibt ja selten Situationen, wo ich einen neuen größeren Wärmeabnehmer wie ein Neubaugebiet neben dem Rechenzentrum habe. In Frankfurt und Berlin gibt es Projekte, bei denen solche Wohngebiete jetzt aus Rechenzentren mit Wärme versorgt werden. Die Umsetzung dauert allerdings ein paar Jahre, da die Wohnungen ja erst gebaut werden müssen.
Eine existierende Wärmeversorgung zu ersetzen, ist dagegen viel aufwendiger. Ein Problem ist, dass die Fernwärmenetze in Deutschland oft auf sehr hohen Temperaturen von bis zu 100 Grad Celsius arbeiten. Um die Wärme von etwa 30 Grad aus Rechenzentren auf dieses Niveau zu bringen, brauche ich sehr viel Energie. Ohne neue Wärmenetze, die auf niedrigeren Temperaturen arbeiten, lohnt sich das kaum. Aber das braucht alles sehr viel Zeit.
Wie sieht es aus mit Innovationen für mehr Effizienz in Rechenzentren, wie schätzt du hier das Potenzial ein?
Aktuell wird bei der Effizienz vor allem darauf fokussiert, die Kühlung und die ganze Gebäudetechnik ressourcensparender zu machen. Die Kühlung ist schon 25 bis 30 Prozent effizienter als vor zehn Jahren und in Zukunft können wir noch effizienter werden. Trotzdem brauchen wir heute mehr Strom für die Kühlung der Rechenzentren als vor zehn Jahren. Das hat mit dem höheren Bedarf an Rechenleistung zu tun.
Der große Teil des Stromverbrauchs steckt aber in der IT, in der Hard- und Software. Daher sind hier auch die größten Potenziale. Das ist allerdings eine große Herausforderung. Die meisten Softwarelösungen heute sind absolut nicht effizient, sondern so programmiert, dass sie viel mehr Ressourcen brauchen als nötig. In der Vergangenheit ging es immer nur darum, Software möglichst schnell und sicher zu bauen. Wir fangen gerade erst an, in den Informatikstudiengängen die Effizienz von Software mit zu unterrichten. Daher ist es auch sehr schwer, wirklich Fortschritte zu erreichen. Wir wissen nicht mal, wie wir die Effizienz genau messen können. Aber es gibt erste Ansätze, wie den Blauen Engel für Software.
Mit künstlicher Intelligenz wird sich das Thema Effizienz von Soft- und Hardware noch wichtiger. Für den Stromverbrauch spielt es eine große Rolle, welche Art von KI, welche Modelle und welche Hardware ich verwende. Da sehe ich für Europa und Deutschland speziell eine Chance. Vielleicht können wir ja im internationalen Wettbewerb unsere Position finden, indem wir KI so effizient machen, so dass wir nicht diese riesigen Rechenzentren wie in den USA benötigen.
Milliarden Kilowattstunden für aufgeblähten Code und die Aufbewahrung von digitalem Staub
In Rechenzentren lagern große Mengen an Datenmüll. Und die Einlagerung von eigentlich nicht mehr benötigten Daten verbraucht unnötig Energie und Speicherressourcen. Dazu kommt, dass Code und Draten oft aufgebläht sind. Weil Rechenleistung so billig ist, schreiben Unternehmen Code ohne Rücksicht auf Energieeffizienz. Und auch das Design von KI-Modellen basiert allzu oft auf „Brute-Force-Methoden“ statt auf durchdachter Technik, sagt Professor Aoife Foley, Vorsitzende für Net Zero Infrastructure an der Universität Manchester.
Wir haben über verschiedene Lösungen gesprochen, aber wie sieht ein wirklich nachhaltiges Rechenzentrum denn nun aus? Was sollte die Blaupause für Rechenzentren der Zukunft sein?
Damit ein Rechenzentrum nachhaltig sein kann, muss es auf jeden Fall mit regenerativ erzeugtem Strom betrieben und nicht mit irgendwelchen Ausgleichszertifikaten grün gerechnet werden. Außerdem sollte ich in einem möglichst hohen Umfang die Abwärme aus dem Rechenzentrum nutzen. Das gilt vor allem hier in Deutschland und anderen kühleren Ländern.
Dann sollte das Gesamtkonzept des Rechenzentrums schon im Bau möglichst auf Nachhaltigkeit getrimmt sein. So gibt es mittlerweile Konzepte für Rechenzentren in Holzbauweise. Und es gibt mittlerweile sogar Holzracks. Und wenn ich mit Beton baue, gibt es auch weniger klimaschädlich erzeugten Beton.
Dann sollte ich die Hardware möglichst lange nutzen und auf effiziente Software und Hardware setzen. Dazu gehört auch, dass die Soft- und Hardware auch ausgelastet sind. Es gibt immer noch viele Rechenzentren, bei denen die Serverauslastung unter 20 Prozent liegt. Das ist weder effizient noch nachhaltig.
Und wenn ich von nachhaltigen Rechenzentren spreche, dann sollte auch das, was dort abläuft, irgendwas mit Nachhaltigkeit zu tun haben. Wenn ich die Rechenzentren dafür nutze, weniger Ressourcen in der Industrieproduktion zu verbrauchen oder unsere Energienetze effizienter zu machen, dann kann ich eher von einem nachhaltigen Rechenzentrum sprechen. Wenn ich in einem Rechenzentrum dagegen Krypto-Mining mache oder mit den Rechenprozessen neue Ölvorkommen erschließe, dann schließt sich das eigentlich aus.
Aber der Energie- und Ressourcenbedarf vor allem in den großen Rechenzentren wird immer erheblich sein. Ein 100 Prozent nachhaltiges Rechenzentrum wird es daher kaum geben.
Auch darauf zu schauen, was in Rechenzentren verarbeitet wird, ist ein interessanter Aspekt. Es gibt ja mittlerweile Banken, bei denen ich einen Einfluss habe, was mit meinem Geld passiert. Aber bei Rechenzentren habe ich noch nie davon gehört, dass die Verarbeitung bestimmter Daten ausgeschlossen wird.
Ja, das ist mir in der Form auch nicht bekannt. Es gibt natürlich grüne Cloud- oder E-Mailanbieter, aber bei den großen Playern scheint mir das bisher kein Thema zu sein.
Wie sieht eine grüne digitale Zukunft aus?
Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:
Auf EU-Ebene gibt es mittlerweile einige Vorschriften, um die Umweltauswirkungen von Rechenzentren zu begrenzen. Wie schätzt du das ein, sind wir auf einem guten Weg?
Ob wir auf einem guten Weg sind, wird sich in den nächsten Jahren zeigen. Bis vor 10 Jahren hat keiner überhaupt auf Rechenzentren geschaut. Seitdem ist allerdings einiges passiert. Die EU hat sich Ziele gesetzt, Rechenzentren und Telekommunikationsinfrastrukturen bis zum Jahr 2030 klimafreundlich oder sogar klimaneutral zu betreiben. Und auch in Deutschland gibt es entsprechende Ziele. Mit der Energieeffizienzrichtlinie auf EU-Ebene gibt es erstmals auch wirklich Regeln, die ganz konkret für Rechenzentren gelten. In Deutschland haben wir diese mit dem Energieeffizienzgesetz auch umgesetzt und klare erste Regeln definiert.
Auf EU-Ebene geht es momentan hauptsächlich um die Erfassung. Die Rechenzentren müssen melden, wo sie Standorte haben, wie viel Strom und Wasser sie verbrauchen. Daraus wird ein Register aufgebaut.
In Deutschland gibt es zusätzlich auch erste Vorgaben, wie effizient die Rechenzentrumsgebäude mit ihrer Klimatisierung und Stromversorgung sein müssen. Darin steht auch, dass 50 Prozent des Stroms aus regenerativen Quellen sein müssen. Ab 2027 sollen es schon 100 Prozent sein.
Außerdem gibt es in Deutschland eine Verpflichtung für Abwärmenutzung bei Rechenzentren, die neu in Betrieb gehen. Auf EU-Ebene gibt es zur Abwärmenutzung bislang nur die Vorgabe, dass die Möglichkeit geprüft werden muss.
Hier stellt sich allerdings auch die Frage, ob die Abwärmenutzung für alle EU-Länder Sinn macht. In Spanien oder Griechenland zum Beispiel Abwärmenutzung aus Rechenzentren fest vorzuschreiben, ist vielleicht nicht unbedingt notwendig. Bei der Klimatisierung ist es ähnlich. In Ländern mit höheren Außentemperaturen wird mehr Energie für die Kühlung benötigt. In Deutschland sind daher sicher etwas strengere Grenzwerte angemessen als in Griechenland.
Gibt es noch andere Möglichkeiten, auf die Betreiber von Rechenzentren einzuwirken, damit sie nachhaltiger werden?
Ja, ich beobachte beim Bau neuer Rechenzentren in Berlin, Brandenburg oder im Raum Frankfurt, dass mehr und mehr Kommunen oder auch zivilgesellschaftliche Gruppen Anforderungen an die Bettreiber der Rechenzentren stellen, die gar nicht im Gesetz stehen. Da wird dann zum Beispiel gesagt, dass das Gebäude besonders nachhaltig gebaut werden und Solarenergie auf dem Dach haben muss oder Aufforstungs-Maßnahmen nötig sind. Dass kommunale Verwaltungen solche Anforderungen stellen, gibt es erfreulicherweise immer öfter. Und die Betreiber von Rechenzentren spielen sehr häufig mit. Sei es, weil sie selbst Nachhaltigkeitsziele verfolgen oder sei es, weil sie unter einem hohen zeitlichen Druck stehen, möglichst schnell zu bauen.
Natürlich ist das für die Verwaltungen auch eine Herausforderung. Sie müssen erstmal die Kompetenz haben bzw. aufbauen, wie man mit Rechenzentren umgehen kann und welche Anforderungen sinnvoll sind. Aber es gibt schon ganz tolle Beispiele, in denen Rechenzentren und Kommunen sehr gut zusammenarbeiten. Das beginnt bei der Sanierung von Industriebrachen über eine nachhaltige Gebäudekonstruktion, der Nutzung von Abwärme bis hin zu natur- und artenschutzrechtliche Ausgleichsmaßnahmen und der Unterstützung von kommunalen Klimaschutzmaßnahmen.
Gibt es denn auch etwas, das ich als einzelne Person tun kann, um mit meinem digitalen Leben Einfluss auf die CO2-Emissionen von Rechenzentren zu nehmen?
Wichtig ist allein schon das Bewusstsein, dass jede Aktion im Internet einen Ressourcenverbrauch verursacht. Der ist bei einer Chat-Nachricht sicher sehr gering, bei der Nutzung von KI oder beim Videostreaming aber schon höher. Ich kann mich beispielsweise auch bei der Auswahl von Cloud- oder E-Maildiensten darüber informieren, wie sich das Unternehmen verhält. Es gibt bestimmte Anbieter, die besonders nachhaltig sind. Und je mehr nachgefragt wird, umso mehr Marktdruck entsteht dann auch auf größere Unternehmen.
Als Unternehmen oder Organisation kann ich auch darauf achten, dass ich ein grünes Rechenzentrum auswähle.
Genau. Unternehmen und Organisationen haben deutlich mehr Handlungsoptionen. Ich kann mir von dem Rechenzentrum beispielweise auch sagen lassen, wie es um die Ökobilanz steht. Da kommt gerade sehr viel in Bewegung und es entsteht mehr Transparenz, auch durch die EU-Gesetzgebung.
The post „Rechenzentren werden den Hauptanteil an den CO2-Emissionen der Digitalisierung haben.“ Ralph Hintemann (Borderstep Institute) im Interview appeared first on Digital for Good | RESET.ORG.
0 Kommentare