This post was originally published on Reset
Der anhaltende KI-Boom stellt viele Menschen vor eine Herausforderung: Neue Technologien wie Generative KI sowie KI-Chatbots wie ChatGPT können im Alltag durchaus praktisch sein. Gleichzeitig sind sie erwiesenermaßen äußerst umweltschädlich. In unserem Ratgeber zur Nachhaltigkeit von Sprachmodellen sind wir daher zum Schluss gekommen, dass unspezifische Sprachmodelle wie die Systeme von OpenAI, Meta und Co. aus ökologischer Perspektive nicht zu empfehlen sind.
Auch eine ethische, qualitative und politische Betrachtung lässt Zweifel an den KI-Systemen von Big-Tech-Unternehmen aufkommen – aber darauf wollen wir uns in diesem Artikel nicht konzentrieren.
Doch es gibt durchaus Möglichkeiten, den digitalen CO2-Fußabdruck bei der Nutzung von GenAI kleiner zu bekommen. Wir haben daher einige Regeln und Fragen für einen nachhaltigeren Umgang mit Sprachmodellen formuliert.
Regel 1: Lohnt sich die Nutzung für meine Aufgabe tatsächlich?
Sich beim Verfassen von Texten oder bei der Recherche im Netz an ChatGPT oder Perplexity zu wenden, hat in der Regel vor allem einen Vorteil: Es wirkt zunächst zeitsparender. Selbst wenn man Sprachmodelle kritisch betrachtet, kann man kaum abstreiten, dass einfache Textarbeiten oder eine grobe Recherche über KI-Chatbots schnell gehen. Allerdings ist es wenig sinnvoll, sich bei der Nutzung von KI-Systemen nur auf die Bequemlichkeit zu konzentrieren.
Was sind die Umweltauswirkungen von GenAI?
Ein paar Bilder, ein paar Anfragen – sind die ökologischen Auswirkungen von GenAI überhaupt relevant?
Eine Metastudie des Öko-Instituts hat 95 Studien zu den Umweltauswirkungen von KI-Modellen ausgewertet. Demnach wird der Strombedarf von KI-Rechenzentren bis 2030 elfmal höher sein als noch im Jahr 2023. Der Wasserbedarf werde bis 2030 um das Dreifache auf 664 Milliarden Liter steigen.
Insgesamt gehen die Autor:innen der Studie davon aus, dass GenAI die Laufzeit fossiler Kraftwerke verlängert und die Klimaziele aufs Spiel setzt.
So gibt es viele Berichte darüber, dass die Datengrundlage von GenAI bestimmte Menschengruppen diskriminiert (Studie der Antidiskriminierungsstelle), Ungleichheiten reproduziert und die Systeme rechte Positionen bestärken. Daten, die KI-Chatbots zusätzlich im Netz recherchieren, werden zudem nicht kritisch eingeordnet und Suchanfragen führen häufig zu Falschinformationen.
Diese Unzuverlässigkeit kann dazu führen, dass eine „saubere“ Recherche über KI-Chatbots länger dauert, als sich direkt an Google oder eine grüne Suchmaschine zu wenden. Und da eine einzige Anfrage an ChatGPT bereits die zehnfache Menge an Energie als eine Suchanfrage benötigt, ist es oft ratsam, direkt zu „googlen“.
Wenn du dich doch für ein Sprachmodell entscheidest, überprüfe folgende Fragen: Ist die Quelle zuverlässig? Sind die Ergebnisse einseitig? Und entsprechen die präsentierten Fakten tatsächlich der Realtität?
Regel 2: Möchte ich Big-Tech-Unternehmen für meine Aufgabe tatsächlich unterstützen?
Die leistungsstärksten und bekanntesten Anwendungen für GenAI stammen von einigen wenigen Technologieunternehmen in den USA. OpenAI, Google und Meta gehören zu den Big-Tech-Unternehmen der USA. Und diese Unternehmen profitieren davon, wenn wir ihre Dienste nutzen – auch wenn diese kostenfrei sind und wir auf den ersten Blick nicht viele personenbezogene Daten in die Suchleiste eintippen.
Dass Angebote wie ChatGPT oder Gemini beliebt sind, bringt Big-Tech-Unternehmen auf unterschiedliche Arten Geld ein. OpenAI konnte im Jahr 2025 ein 40 Milliarden US-Dollar umfassendes Investment verzeichnen, die wahnsinnig hohen Nutzungszahlen von ChatGPT könnten da eine Rolle gespielt haben. Die Aktien von Hardware-Hersteller NVIDIA konnte im Jahr 2025 sogar die Börsenkurse von Apple oder den DAX überholen.
Je größer Big-Tech-Unternehmen werden, desto größer wird auch ihr Einfluss auf die Politik, die Gesellschaft und viele weitere Lebensbereiche. Der Sozialforscher Paul Schütze erklärte uns im Interview, dass KI-Technologien von Big-Tech aktuell „im Verdacht stehen, einen faschistischen Umbau des Staates“ in den USA zu befeuern. Gleichzeitig entwickeln KI-Dienstleister wie OpenAI auch Waffensysteme wie autonome Drohnen oder bauen wie Elon Musks xAI Datenzentren in strukturschwachen Gebieten und betreiben diese mit gesundheitsschädlichen Gasgeneratoren.
Ein bewusster und nachhaltiger Umgang mit Technologien sollte derartige Entwicklungen mit einbeziehen und Alternativen bevorzugen.
Regel 3: Verhältnismäßigkeit und spezialisierte Anwendungen
Sprachmodelle können eine gewaltige Bandbreite an Aufgaben und Anfragen bearbeiten. Denn sie sind auf riesigen und sehr unspezifischen Datensätzen trainiert worden, um als Universallösungen zu arbeiten. Diese Flexibilität führt aber auch dazu, dass ihr Training und der alltägliche Betrieb – auch Inferenz genannt – so ressourcenintensiv sind.
Der Techblogger „stk“ wirft daher in einem Vortrag über eine KI-gestützte Verwaltung die Frage auf: Wann ist der Einsatz großer Sprachmodelle verhältnismäßig? Er veranschaulicht dies mit folgendem Vergleich:
„Ich kann eine Dose Ravioli auch mit einem Schiffsdieselmotor aufheizen, den ich in meinem Garten betreibe. Es ist aber vielleicht nicht die sinnvollste Art.“ Sprich, warum muss ein riesiges Sprachmodell für einfache Aufgaben wie eine Suchanfrage bemüht werden?
Spezialisierte Computerprogramme – mit oder ohne KI-Label – liefern dagegen oft bessere Ergebnisse und sind deutlich effizienter. Etwa das KI-Tool Simba, das deutsche Textsätze in einfache Sprache umwandeln kann. Es steht kostenfrei im Netz zur Verfügung und basiert auf einer angepassten Variante des Foundation-Modells Llama-3-8B-Instruct. Laut EcoLogits-Rechner ist dieses eher kleine Sprachmodell etwa 23-mal effizienter als OpenAIs ChatGPT 4o.
Entwickelt wurde Simba dabei von einem Team aus Forschenden vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) – Projektleiterin Dr. Theresa Züger verrät uns im Interview mehr über sogenannte „Public Interest AI“.
Regel 4: KI-Chatbot sind keine Menschen
IKEA kündigte Ende 2024 an, einen neuen Chatbot für die Betreuung von Kund:innen einzuführen, der auf ChatGPT basiert. Allerdings gibt es auf der Webseite von IKEA bereits seit 2005 eine virtuelle Kundenberaterin namens „Anna“.
Anna war dabei so programmiert, dass sie natürliche Kundengespräche simuliert. Sie begrüßt Nutzer:innen und fragt, wie sie helfen kann. Und dementsprechend neigen Nutzende dazu, sie zu begrüßen, sich bei Anna zu bedanken und sich zum Ende der Konversation von ihr zu verabschieden. Diese Tradition führen große Sprachmodelle mit ihren natürlich wirkenden Chat-Anwendungen fort.
Begrüßungen, Danksagungen, Entschuldigungen und sonstige Floskeln müssen allerdings immer wieder als neue Anfragen verarbeitet werden. Auch wenn es zunächst unnatürlich wirkt, ist es daher aus ökologischer Sicht ratsam, „unfreundlich“ mit einem KI-Chatbot umzugehen. Unfreundlich steht dabei in Anführungszeichen, da man sich auch ins Gedächtnis rufen sollte: Ich chatte mit einem Computersystem und nicht mit einem Menschen. Und die Gefühle von einem Computer kann man nicht verletzen, denn er hat keine Gefühle. Eine Erinnerung, die auch mit Blick auf die steigende Anzahl an parasozialen Beziehungen zu KI-Chatbots sinnvoll und gesund ist.
Regel 5: Längere Antworten, mehr Rechenleistung
Studien zum Energie- und Wasserverbrauch von Sprachmodellen zeigen: Je länger die Antworten sind, die GPT, Gemini und Co. generieren müssen, desto höher der Energie- und Wasserverbrauch sowie die Belastung für die genutzte Hardware. Das Unternehmen EcoLogits, das wir oben schon einmal erwähnt haben, bietet einen Rechner an, mit dem wir den Ressourcenverbrauch aktueller Sprachmodelle miteinander vergleichen können. Dabei können wir auch vergleichen, wie sich diese Faktoren nach Länge der erstellten Textausgabe verändern.
KI-Chatbots können wir als Nutzer:innen also sparsamer betreiben, wenn wir Anfragen so formulieren, dass sie möglichst kurze Antworten generieren. Der Autor Edgar Linscheid hat unter dem Label „Sustainable Prompting“ einen Ansatz entwickelt, mit dem er eine nachhaltige und ethische KI-Kompetenz vermitteln möchte.
„Butter bei die Fische“ – wie viel Energie braucht meine KI-Nutzung?
Auch wenn Big-Tech-Unternehmen ungern über den wahren Ressourcenhunger ihrer Anwendungen reden, gibt es Tools im Netz, die uns weiterhelfen können.
Die Non-Profit-Organisation GenAI Impact bietet mit dem EcoLogits Calculator ein kostenfreies Web-Tool an, über das sich der Ressourcenhunger verschiedener Modelle miteinander vergleichen lässt.
Alternativ erlaubt ChatUI-energy eine Nutzung einiger Sprachmodelle inklusive Berechnung der aufgewendeten Energie und des CO2-Ausstoßes.
Gegenüber RESET rät er dazu, Anfragen so zu formulieren, dass wir mit möglichst wenigen Durchläufen die gewünschten Inhalte bekommen:
„Je besser du generative KI briefst, desto besser ist das Ergebnis, desto weniger Iterationen brauchst du, desto ressourcenschonender nutzt du KI.“
Dabei empfiehlt es sich nicht unbedingt, einen Chatbot darum zu bitten, immer nur in einem Satz oder mit wenigen Worten zu antworten. Denn dann müssen wir womöglich mehrere Anfragen stellen, um zum gewünschten Ergebnis zu kommen.
Allerdings gebe es etwa bei ChatGPT Einstellungen, mit der sich die Outputs anpassen lassen. So könne man in den Grundeinstellungen etwa „kurze präzise Antworten“ präferieren und den Chatbot dazu anweisen, „Wiederholungen der Frage und Einleitungssätze zu vermeiden“. Auch die Speicherung von Anweisungen lässt sich dort aktivieren, sodass ChatGPT diese nicht immer wieder erfragen muss.
Sogenannte Deep-Research-Funktionen, über die KI-Chatbots über das Internet oder Reasoning präzisere Antworten liefern können, sollte man zudem nicht dauerhaft nutzen, da sie zusätzliche Energie benötigen.
Regel 6: Stockfotos und Stockvideos statt KI-Generierung
Neben Texten kann GenAI auch Bilder und Videos erstellen. Deren Generierung ist allerdings noch einmal um ein Vielfaches rechenintensiver als die Erstellung von Textinhalten. Dementsprechend sollte man sie mit CO2-Emissionen im Blick ebenfalls mit Bedacht nutzen.
Grundsätzlich ist es nicht schwer, im Internet kostenfreie und von Menschen erstellte Bilder und Videos zu finden. Stock-Plattformen wie Pexels, Unsplash oder Pixabay oder Wissensdatenbanken wie Wikimedia bieten etliche kostenfreie Inhalte an, die sich mit korrekten Quellenangaben einwandfrei nutzen lassen. Bei diesen Plattformen ist zudem sicher, dass die Urheber:innen einer Weiternutzung zugestimmt haben – ein weiteres Problem aktueller KI-Anwendungen.
Auf Stock-Plattformen finden sich inzwischen aber auch vermehrt KI-generierte Inhalte. Diese werden allerdings nicht von den Plattformen selbst generiert, sondern von Nutzer:innen erstellt und anschließend hochgeladen. Ähnlich wie beim Carsharing, wo viele Menschen sich die CO2-Emissionen eines Autos teilen, sinkt auch der digitale CO2-Fußabdruck, wenn KI-generierte Inhalte gemeinschaftlich genutzt werden.
Kommt man einmal nicht an der KI-Generierung von Bildern und Videos vorbei, gelten ähnliche Regeln wie bei Texten. Möglichst präzise formulierte Anfragen führen dazu, dass wir weniger Durchgänge benötigen.
Regel 7: KI-gestützte Anwendungen auf grünen Servern suchen
Unsere letzte Regel bezieht sich nicht direkt auf Sprachmodelle, wird aber maßgeblich vom aktuellen KI-Boom geprägt. Unternehmen integrieren zunehmend KI-Funktionen in ihre digitalen Produkte, die häufig auch auf großen Sprachmodellen basieren. Etwa Apples „Apple Intelligence“ oder der bereits erwähnte neue Kundenberater von IKEA.
Wie sieht eine grüne digitale Zukunft aus?
Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:
Unternehmen mit nachhaltigen digitalen Strategien, die sich an einer CDR orientieren oder generell einen Fokus auf Nachhaltigkeit legen, achten mitunter auch auf Green-Hosting bei ihren KI-Anwendungen. Inwiefern es sich dabei allerdings um eine wirklich sinnvolle Umsetzung oder um Greenwashing handelt, ist pauschal nicht zu beantworten.
Fazit: Weniger ist mehr, vermeiden ist besser
In Anbetracht der massiven ökologischen und sozialen Auswirkungen bleibt der nachhaltigste Umgang, KI-Anwendungen am besten gar nicht zu nutzen. Und wenn doch, dann auf spezialisierte Modelle zu setzen. Denn diese beherrschen viele der Aufgaben besser als große Sprachmodelle und sind dabei effizienter.
Natürlich kann es Zeitvorteile mit sich bringen oder einfach unterhaltsamer sein, sich im Alltag an KI-Chatbots zu wenden. Sie ermöglichen Menschen zudem einen leichteren und barrierefreien Zugang zu Informationen und Inhalten im Netz. Eine möglichst sparsame Nutzung ist vor allem von der Länge der Antworten sowie der Menge der Anfragen abhängig. Anfragen sollten Nutzer:innen daher möglichst präzise stellen und dem KI-Chatbot Anweisungen an die Hand geben, Antworten kurz zu formulieren.

Dieser Artikel ist Teil des Dossiers „Digital und grün – Lösungen für eine nachhaltige Digitalisierung“, in dessen Rahmen wir Lösungen für eine ökologische und faire Digitalisierung vorstellen. Wir danken der Deutschen Bundesstiftung Umwelt (DBU) für die Projektförderung!
Du willst keinen Artikel zum Thema verpassen? Dann abonniere unseren Newsletter oder RSS-Feed und folge uns auf Mastodon, Bluesky oder LinkedIn!
The post CO2-Sorgen bei GenAI? So nutzt du Sprachmodelle sparsamer appeared first on Digital for Good | RESET.ORG.
0 Kommentare