Suchen

Gibt es nachhaltige Sprachmodelle? Drei Perspektiven aus der aktuellen Debatte um KI und GenAI

We are an online community created around a smart and easy to access information hub which is focused on providing proven global and local insights about sustainability

03 Juli, 2025

This post was originally published on Reset

Selten hat eine neue Technologie so viele Menschen begeistert – oder zumindest ihr Interesse geweckt. Einer Studie nach hat ungefähr die Hälfte der Menschen in Deutschland bereits Erfahrungen im Umgang mit generativer KI gemacht. Immerhin 26 Prozent der Befragten gaben an, Sprachmodelle und GenAI täglich oder mehrmals wöchentlich einzusetzen – Tendenz steigend. Der KI-Boom scheint seit der Veröffentlichung von ChatGPT Ende 2022 kaum mehr aufzuhalten. Wenn wir über Digitalisierung sprechen, kommen wir also an Sprachmodellen wie OpenAIs GPT-Modelle, Googles Llama-Modelle, BLOOM von Hugging Face mit Anwendungen wie ChatGPT, Gemini, Perplexity und Co. nicht mehr vorbei.

Dass diese KI-Chatbots auf so viel Anklang stoßen, ist nicht verwunderlich. Denn einerseits sorgen die technischen Fortschritte von KI-Chatbots und Tools für generative KI immer wieder für Schlagzeilen. Andererseits verändern Sprachmodelle durchaus die Art und Weise, wie wir mit Computern umgehen. Seit Ende 2022 scheint sich für manche die Zukunft endlich zu dem zu entwickeln, was uns Sci-Fi-Filme mit KI-Fantasien wie „J.A.R.V.I.S.“ oder HAL-9000 seit Jahrzehnten versprechen.

KI, LLM, Sprachmodell, GenAI – was sind die Unterschiede?

Eine kurze Erklärung der Begrifflichkeiten, um diesen Artikel besser zu verstehen:

  • KI: Steht für Künstliche Intelligenz und beschreibt grob alle Computersysteme, die menschenähnliche Aufgaben ausführen können. Das erfolgt in der Regel über maschinelles Lernen. KI wird als Überbegriff verwendet, unter dem sich alle weiteren Begriffe einreihen.
  • Sprachmodell: Etwas vereinfacht ein mathematisches Modell, das Worte anhand von Wahrscheinlichkeiten in eine bestimmte Reihenfolge bringt.
  • LLM: „Großes Sprachmodell“ und damit das, was die Grundlage für ChatGPT, Gemini und Co. darstellt – also mathematische Modelle, die auf Datensätzen trainiert wurden.
  • Parameter: Parameter sind die Grundbausteine von LLMs – dabei handelt es sich nicht direkt um Worte oder Sätze, sondern um Zahlenwerte. Grob lässt sich aber festhalten: Je mehr Parameter, desto komplexer.
  • GenAI: Steht für Generative KI und beschreibt alle KI-Anwendungen, die neue Texte, Bilder, Videos, Codezeilen und mehr generieren können.

Mit ein wenig mehr Entwicklungszeit sollen KI-basierte Anwendungen uns zukünftig sogar dabei helfen, die Klimakrise zu lösen. Sie sollen neue Technologien entwickeln, die unseren steigenden Energiebedarf ohne den Ausstoß von Treibhausgasen decken. Sie sollen den Verkehrssektor mit einem autonomen Individualverkehr automatisieren und uns in ferner Zukunft sogar unsterblich machen.

Diesen Versprechen stehen lauter werdende kritische Stimmen entgegen, die sowohl aktuelle als auch zukünftige KI-Entwicklungen in Frage stellen. Generell ist es im Jahr 2025 schwer, zwischen wirklichen Innovationen im Zusammenhang mit KI und dem KI-Hype zu unterscheiden.

In Ländern wie Argentinien, den USA und auch in Deutschland werden KI-generierte Inhalte von populistischen Parteien im Wahlkampf genutzt. Ehemalige Befürworter von Künstlicher Intelligenz warnen zudem vor den Gefahren einer KI-basierten Superintelligenz. Und so ziemlich alle großen Tech-Unternehmen haben unmittelbar nach der Veröffentlichung von ChatGPT ihre Nachhaltigkeitsziele aufgegeben und ihren CO2-Ausstoß deutlich erhöht.

Uns interessiert in diesem Artikel vor allem die ökologische Sicht auf Sprachmodelle und generative KI. So viel vorneweg: Es ist komplex. Wir möchten daher drei Perspektiven aus der aktuellen Debatte um nachhaltige Sprachmodelle vorstellen. Anschließend formulieren wir daraus Handlungsempfehlungen. Aber starten wir mit den Basics!

Warum gibt es überhaupt Kritik an der Nachhaltigkeit von Sprachmodellen?

Die Entwicklung von Sprachmodellen, die im Englischen ein wenig passender als „Large Language Models“ ihren Einzug in alltägliche Diskussionen gefunden haben, benötigen große Mengen an Energie, Daten, Wasser und weiterer Ressourcen. Denn um uns als Nutzer:innen möglichst passende Antworten auf Fragen zu liefern, errechnen Sprachmodelle – ein wenig vereinfacht – die jeweils wahrscheinlichste Folge an Worten und Buchstaben, die es auf unsere Anfrage laut Datensatz gibt. Und dafür orientieren sie sich an riesigen Datensätzen aus natürlicher Sprache und Programmiersprachen.

Die Basis hierfür sind Bücher, Dokumente, wissenschaftliche Studien, Bilder, Videos, Social-Media-Chats, Codezeilen und sonstige digitale Inhalte, die in einem monatelangen Trainigsprozess verarbeitet werden müssen. Im Juni 2025 nutzen etablierte Modelle zum Teil Hunderte Milliarden Parameter. Dieses lange Training unspezifischer Sprachmodellen, wie sie die meisten Menschen aktuell nutzen, verursacht hohe CO2-Emissionen – bevor überhaupt die erste Anfrage gestellt wurde. Einer Studie zufolge verursacht ChatGPT etwa monatlich so viel Kohlenstoffdioxid wie 260 Flüge von New York nach London. Generell gilt: Eine Suchanfrage via ChatGPT zu äußern, benötigt 10-mal mehr Energie als eine Google-Suche.

Der Grund: Das Training neuer Sprachmodelle findet in gewaltigen Rechenzentren statt. Und die benötigen qua natura große Mengen an Energie, Wasser zur Kühlung und Hardware in Form von Halbleitern. Die alltägliche Arbeit aus Anfragen und Antworten, die in der KI-Welt „Inferenz“ genannt wird, führt diesen hohen Ressourcenhunger aus dem Training dann weiter fort.

Wie hoch ist aber dieser Ressourcenverbrauch genau? Lohnen sich diese Investitionen vielleicht? Was ist der gesellschaftliche Nutzen von Sprachmodellen? Genau hier unterscheiden sich die drei Perspektiven maßgeblich voneinander.

Erste Perspektive: „KI“ wird die Klimakrise und weitere gesellschaftliche Probleme als „Superintelligenz“ lösen

In ihrem „Social Media Watchblog“ fassen Simon Berlin und Martin Fehrensen einige Zitate der CEOs von Tech-Unternehmen zusammen:

Luis Ahn von Duolingo bezeichnet die Zukunft seines Unternehmens als „AI-First“ und warnt davor, bei großen Umbrüchen (Anm. d. Redaktion: wie dem KI-Boom) abzuwarten. „Es geht nicht um das Ob oder Wann – es geschieht bereits“. Barbara Peng, CEO von Business Insider und somit einem großen journalistischen Medium, will zukünftig, dass „100 Prozent ihrer Mitarbeitenden ChatGPT nutzen.“ Und das, obwohl sie ihre Organisation durch die neuen KI-Technologien um 21 Prozent verkleinern möchte. Eine etwas widersprüchliche Erwartung, die Micha Kaufman von der Freelancer-Jobbörse Fiverr noch einmal auf den Punkt bringt: „KI ist hinter euren Jobs her. Ehrlich gesagt auch hinter meinem.“

Ist „KI“ als Sammelbegriff problematisch?

Sollten wir den Begriff „KI“ überhaupt nutzen? Laut der Autor:innen Emily M. Bender und Alex Hanna tragen wir dadurch zum künstlichen „AI-Hype“ der Big-Tech-Unternehmen bei.

Die Autor:innen beschreiben das ausführlich in ihrem Buch „The AI Con: How to Fight Big Tech’s Hype and Create The Future We Want„. Alternativ gibt’s auch einen Podcast zur Thematik.

Diese Zitate haben eine Gemeinsamkeit, die die Sichtweise vieler Menschen auf Sprachmodelle und „KI“ veranschaulicht. Sie betrachten diese Systeme weniger als neue Technologie und als Option in einer pluralistischen und ausdifferenzierten Digitalgesellschaft. Sie sehen sie eher als natürliche Entwicklung einer technologischen Gesellschaft. Und dabei spiegeln sie einen Technikdeterminismus wider, der die Verbreitung von Sprachmodellen mit der industriellen Revolution oder dem Buchdruck gleichsetzt. Das „KI-Zeitalter“ ist hier eine weitere Entwicklungsstufe einer technischen Gesellschaft, die allein dadurch einen positiven gesellschaftlichen Wandel darstellt.

ChatGPT: Eines der beliebtesten Tools in der Geschichte des Internets

Und tatsächlich wurde ChatGPT im April 2025 von 800 Millionen Menschen und damit fast 10 Prozent der Weltbevölkerung genutzt. Die Plattform zählt 1,5 Millarden Besuche im Monat und ist damit eine der am schnellsten wachsenden Plattformen im Internet. Nicht etwa „aktuell“, sondern seit der Entstehung des Internets.

Dabei wird es zunehmend schwieriger, Sprachmodelle zu vermeiden. Googles multimodaler Chatbot Gemini Live wurde im April 2025 auf Millionen Android-Geräte ausgerollt. Meta integrierte die eigene „Meta AI“ ohne Deaktivierungsmöglichkeiten in den beliebtesten Messenger der Welt WhatsApp. Und auch die meisten Suchmaschinen bieten bereits angeblich KI-basierte Funktionen an.

Trotz dieser gewaltigen Verbreitung sind die ökologischen Auswirkungen von Sprachmodellen aber laut den Befürworter:innen der Technologien zu vernachlässigen. Ein Blog-Beitrag des OpenAI-CEOs Sam Altman veranschaulicht dabei, warum.

„Ungefähr ein Fünfzehntel eines Teelöffels“

Im Beitrag, der im Juni 2025 veröffentlicht wurde, äußert sich Altman zum Energie- und Wasserverbrauch von ChatGPT: „Menschen sind zunehmend neugierig, wie viel Energie eine Anfrage an ChatGPT verbraucht. Die durchschnittliche Anfrage verbraucht ungefähr 0,34 Wattstunden, ungefähr so viel wie ein Ofen in etwas mehr als einer Sekunde oder eine effiziente Glühbirne in einer Stunde verbraucht. Eine Anfrage verbraucht auch 0,000085 Gallonen Wasser, ungefähr ein Fünfzehntel eines Teelöffels.“

Der Ressourcenverbrauch einer einzelnen Anfrage von ChatGPT ist Altman zufolge also nichtig. Sogar dann, wenn wir uns an die 1,5 Milliarden Besuche im Monat erinnern. Laut Sam Altman gibt es keinen Grund zur Beunruhigung:

„Die Rate technologischen Fortschrittes wird sich weiter beschleunigen … und es wird schwierige Dinge geben, wie dass eine ganze Klasse an Jobs verschwinden wird. Aber auf der anderen Seite wird die Welt so schnell reicher werden, dass wir ganz neue Ideen für soziale Strategien benötigen werden. Wir werden vielleicht nicht umgehend ein neues soziales Miteinander haben, aber wenn wir in einigen Monaten zurückblicken, werden wir nach vielen kleinen Veränderungen sehen, dass etwas Großes entstanden ist.“


Raum mit Servern.


©

CERN



Datenzentren werden in Zeiten generativer KI immer wichtiger. Und verbrauchen immer mehr Strom und Wasser.

Laut Sam Altman entwickelt sich durch Unternehmen wie OpenAI mit ihren KI-Technologien langfristig eine neue Gesellschaftsform. Und aus Sprachmodellen wie ChatGPT wird sich letztendlich eine „General Artificial Intelligence“ oder eine KI-Superintelligenz entwickeln. Und diese wird laut einigen Expert:innen die Herausforderungen des menschengemachten Klimawandels lösen und sogar rückgängig machen können.

Systeme, die mit maschinellem Lernen arbeiten, können tatsächlich zu mehr Effizienz in Lieferketten, für eine effizientere Landwirtschaft und zur Entwicklung neuer Technologien zur CO2-Reduzierung verwendet werden. Die IMF schätzt, dass die Verbreitung von „KI-Systemen“ wirtschaftliche Vorteile bringt und langfristig CO2-Emissionen reduzieren könnte. Historisch gesehen führten Effizienzsteigerung allerdings oft zu Rebound-Effekten, was letztendlich die CO2-Emissionen nicht senkt – Stichwort „Jevons Paradoxon„. Doch damit beschäftigen sich Altman und seine Kollegen nicht.

Als Handlungsempfehlung aus dieser technikdeterministischen Perspektive können wir also festhalten: Wir müssen nur noch ein wenig durchhalten bis die „KI“ unsere Probleme lösen wird. Aber dann wird die Welt zu einem besseren Ort. Wie diese bessere Welt aussehen wird, für welche Gesellschaftsgruppe diese Welt Vorteile bringen wird und wie KI-Superintelligenz den Klimawandel aufhalten wird – diese Fragen werden in der ersten Perspektive nicht direkt beantwortet.

Perspektive 2: Sprachmodelle bieten Potenziale, wenn sie richtig eingesetzt werden

Die zweite Perspektive, die wir erkunden wollen, betrachtet Sprachmodelle und KI-basierte Technologien primär als als Werkzeuge, deren gesellschaftlicher Nutzen vom Einsatz abhängt.

Der deutsche IT-Experte Björn Ommer beschreibt in einem Interview ganz gut, warum generative KI überhaupt als Revolution im Umgang mit Computersystemen wahrgenommen wird:
„Mit generativer KI versteht uns der PC endlich in natürlicher Sprache. Er lernt, was wir brauchen, und liefert uns dann Lösungen, die wirklich unseren Bedürfnissen entsprechen. Damit können alle Menschen die Fähigkeiten der Computer voll ausschöpfen, nicht nur die, die programmieren können.“

Durch generative KI werde also das, was Unternehmen vor Jahrzehnten als „Personal Computer“ beworben haben, tatsächlich „personal“ und bedürfnisorientiert. Während Björn Ommer daraus vor allem eine Notwendigkeit für europäische Unternehmen formuliert, eigene KI-Systeme zu entwickeln, zeigen sich darin auch Vorteile für einen egalitären und barrierefreien Umgang mit Computern.

Potenziale einer Public Interest AI

Sprachmodelle können nicht nur Menschen einen neuen Umgang mit Computern ermöglichen, die nicht programmieren können. Sie ermöglichen auch Menschen Zugänge, die bislang weitestgehend vom digitalen Leben ausgeschlossen waren. Das KI-Tool Simba etwa ist darauf spezialisiert, komplexe Texte zu vereinfachen. Webseiten öffentlicher Einrichtungen, deren Texte oft kompliziert sind, können so von mehr Menschen verstanden werden.

Simba ist dabei Teil eines Projekts für „Public Interest AI“. Und veranschaulicht, wie KI-Technologien auch ohne Superintelligenz-Versprechen zu positivem gesellschaftlichen Wandel führen kann.

RESET-Greenbook zu Künstlicher Intelligenz

Weniger Wasserverbrauch in der Landwirtschaft, effizientere Lieferketten und vieles mehr – KI-Technologien bieten auch viele Potenziale, wenn es um Nachhaltigkeit geht.

Hierzu haben wir vor einigen Jahren ein Greenbook veröffentlicht – wie hat sich der KI-Diskurs seitdem verändert?

Theresa Züger vom Alexander von Humboldt Institut für Internet und Gesellschaft kritisiert im Interview mit RESET, welche Ausrichtungen Unternehmen aktuell in Bezug auf KI hauptsächlich verfolgen: „Die KI-Industrie stellt Marktinteressen an erste Stelle. Die Frage, was KI-Systeme für gesellschaftliche Effekte haben, ist nachrangig.“ Ein Großteil der Modelle, die in Deutschland und Europa genutzt werden, seien zudem von wenigen Big-Tech-Unternehmen in den USA entwickelt worden. Und deren Produkte verfolgen bei genauer Analyse nur selten einen gesamtgesellschaftlichen Mehrwert.

Die Forscherin möchte daher mit ihrem „AI & Society Lab“ am HIIG Potenziale einer Public Interest AI erkunden. Ihrer Meinung nach können KI-Systeme mit der richtigen Ausrichtung durchaus einen gesellschaftlichen Mehrwert schaffen. Als ersten Schritt hat sie daher eine Übersicht über KI-Systeme mit derartige Ausrichtung zusammengestellt.

Spezialisierte KI-Anwendungen können die Probleme von LLMs umgehen

Andere Projekte versuchen zudem, Sprachmodelle und generative KI nachhaltiger zu denken. Laut Therry Zhang muss man für „sparsame“ KI einen anderen Ansatz verfolgen als bei den aktuellen großen Sprachmodellen. Das Unternehmen Hugging Face versucht mit BLOOM daher ein möglichst ethisches und nachhaltiges Sprachmodell zu entwickeln. Mit 176 Milliarden Parametern und 46 verschiedenen natürlichen Sprachen ist BLOOM jedoch auch besonders umfangreich und unspezifisch.

Derartige Projekte zeigen: Der Hype, den Sprachmodelle seit einigen Jahren erfahren, bringt auch soziale und nachhaltige Ansätze mit sich. Allerdings sind viele dieser Alternativen deutlich spezialisierter und oft auch weniger zugänglich, um als Alternativen zu ChatGPT, Bard und Co. zu gelten. Und deren Popularität lässt sich genau aus diesen Faktoren erklären: Sie sind kostenfrei, geben vor, präzise Informationen und menschliche Antworten zu liefern und verstehen dabei unsere Eingaben in natürlicher Sprache.

Wie unsere letzte Perspektive aufzeigt, verstecken sich aber auch hinter diesen vermeintlichen Vorteilen Trugschlüsse. Und wie bei vielen vermeintlich kostenlosen Angeboten im Netz – etwa Cloud-Speicher von Google oder Social-Media-Plattformen – geht die Nutzung von ChatGPT und Co. mit versteckten Kosten einher.

Perspektive 3: Sprachmodelle sind von Natur aus nicht-nachhaltig und replizieren Ungleichheiten und Diskriminierung

Eine kritische Auseinandersetzung mit Sprachmodellen hat viele Dimensionen. Aus ökologischer Perspektive sind es vor allem Rechenzentren, denen Experten wie Ralph Hintemann zukünftig einen „Hauptteil an den CO2-Emissionen der Digitalisierung“ zuschreibt. Denn die angeblich marginalen Kosten für Energie und Wasser, die Sam Altman in seinem Blogbeitrag beschreibt, sehen in unabhängigen Studien und Analysen ganz anders aus.

Eine Metastudie, die das Öko-Institut im Auftrag von Greenpeace erstellt hat, fasst die Ergebnisse aus 95 Studien zusammen. Demnach werde der Strombedarf von KI-Rechenzentren bis zum Jahr 2030 elfmal höher sein als noch im Jahr 2023. „Dann wird KI so viel Strom benötigen, wie heute sämtliche klassischen Rechenzentren zusammen,“ fasst das Team der Autor:innen zusammen. Der Wasserbedarf, der bei KI-Rechenzentren durch die Kühlung der Servertürme entsteht, werde bis 2030 von 175 Milliarden Litern im Jahr 2023 um das Dreifache auf 664 Milliarden Liter steigen.

data centre construction

Wie gehen wir mit dem Durst von KIs um?

Der Wasserverbrauch von KI-Rechenzentren ist komplexer als bloße Kühlsysteme.

Warum sich beim Bau von Rechenzentren koloniale Muster wiederholen und welche Lösungsansätze es gibt, dem sind wir im verlinkten Artikel nachgegangen.

Zu diesen Ressourcen kommen sekundäre Effekte hinzu. Denn die Produktion von Halbleitern, die wir für den Bau neuer Rechenzentren brauchen, benötigt einzeln betrachtet schon sehr viel Wasser und Energie. Die Expertin Julia Hess erklärt diese Problematik im Zusammenhang mit ihrem „Semiconductor Emission Explorer“ noch einmal genauer im Interview. Gleichzeitig beansprucht GenAI die genutzte Hardware so stark, dass die Halbwertszeit der genutzten Grafikprozessoren kürzer ist als bei anderen Anwendungen. KI steht also auch im Verdacht, besonders viel Elektroschrott zu produzieren.

Selbst wenn sich der Energieverbrauch von KI-Rechenzentren – zurück in der Metastudie – bis zum Jahr 2040 zu 100 Prozent aus erneuerbaren Energien speisen ließe, rechnen die Expert:innen mit einem Anstieg der Treibhausgasemissionen. Denn der zusätzlich benötigte Strombedarf verlängert die Laufzeit fossiler Kraftwerke und gefährdet insgesamt die Klimaziele. Der aktuelle Trend zeigt zudem, dass Big Tech eher auf Atomkraft und Gaskraftwerke setzen. Und das mitunter ohne Genehmigungen und mit verheerenden Auswirkungen auf umliegende Gemeinden.



©

Greenpeace / Öko-Institut



Mehreren Schätzungen zufolge wird der Energieverbrauch von KI-Rechenzentren bis 2030 noch einmal stark ansteigen.

Rein ökologisch betrachtet sind Sprachmodelle also eine besonders ressourcenintensive Technologie. Und deren Verbreitung geschieht zu einem Zeitpunkt, an dem wir unseren Ausstoß an Treibhausgasen mit vorhandenen Technologien bereits drastisch senken müssen.

Aber: Dem Narrativ von Befürworter:innen wie Sam Altman nach werden sich diese Investitionen langfristig lohnen, da die neue Technologie die Klimakrise als „General Artificial Intelligence“ lösen wird. Doch an diesem Versprechen lassen sich eindeutige Zweifel formulieren.

„LLMs orientieren sich immer am Status Quo“

Auf unsere Frage nach einem gesellschaftlichen Nutzen eines möglichst nachhaltigen Sprachmodells antwortet der Osnabrücker Sozialforscher Paul Schütze, dass wir auch deren vermeintlichen Vorteile kritisch hinterfragen müssen. So sei in letzter Zeit immer deutlicher geworden, dass „GenAI in der momentanen sozioökonomischen Situation vor allem destruktiv“ ist. KI-generierte Bilder etwa würden maßgeblich mit rechter Ästhetik in Verbindung gebracht und der „Einsatz von KI wird in den USA via Elon Musk und DOGE als faschistischer Umbau des Staates“ interpretiert.

Rainer Rehak warnt zusätzlich davor, dass aktuelle KI-Systeme „nur das umsetzen können, was wir als Gesellschaft bisher beschlossen haben.“ Demzufolge werden KI-Systeme „immer unter den aktuellen, grundsätzlich nicht nachhaltigen Rahmenbedingung geschaffen“ und agieren auch immer nur innerhalb dieser Rahmenbedingungen. Nachhaltige KI schaffe es unter den aktuellen Bedingungen daher immer nur „das ‚Business as Usual‘“ fortzuführen.




©


Steve Jones, Flight by Southwings for SELC



Luftbilder zeigen: Elon Musk setzt in seinem neuesten Rechenzentrum umweltschädliche und illegale Erdgasturbinen ein. Die lokale Bevölkerung im US-amerikanischen Memphis leider darunter.

Paul Schütze fasst dieses Problem wie folgt zusammen: „Nachhaltige KI ist die technische Lösung der Klimakrise aus einem techno-solutionistischem Blickwinkel und reproduziert lediglich den Status Quo“.

Sprachmodelle lösen gesellschaftliche Probleme unter diesesr Annahme also nicht, sie halten die Ungleichheiten aufrecht, die überhautp erst zu diesen gesellschaftlichen Problemen geführt haben. Eben weil sie sich in ihren Datensätzen immer die Möglichkeiten finden, die es beim Training gab.

Fazit: Eine nachhaltige Zukunft mit KI braucht spezialisierte Lösungen statt Sprachmodelle

Wenn wir aus diesen drei Perspektiven Handlungsempfehlungen formulieren, würden diese wie folgt aussehen:

Von der Nutzung großer Sprachmodelle wie ChatGPT, MetaAI und ähnlicher Technologien ist mindestens aus ökologischer Perspektive dringend abzuraten. Schon jetzt ist klar, dass sie extrem ressourcenintensiv sind, gesellschaftliche Ungleichheiten reproduzieren und vor allem die Interessen der Personen, die maßgeblich für ihre Entwicklung und für ihre Popularität verantwortlich sind, verfolgen. Hinzu kommen weitere kritische Eigenschaften. Etwa unpräzise Ergebnisse aufgrund von Halluzinationen, die Diskriminierung von Menschen nicht-weißer Hautfarbe und nicht-männlichen Geschlechts und vieles mehr. Probleme, denen der Technikkritiker Paris Marx mit „Tech Won’t Save Us“ einen Podcast gewidmet hat und zu denen es auf der re:publica 2025 ebenfalls spannende Vorträge gab.

nachhaltige Digitalisierung

Wie sieht eine grüne digitale Zukunft aus?

Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint  die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:

Dennoch ist es in Anbetracht der drei Perspektiven wichtig, zwischen großen Sprachmodellen und spezialisierten KI-Anwendungen zu unterscheiden. Eine differenzierte KI-Kritik, wie sie die bereits zu Anfang dieses Artikels erwähnten Autoren des Social-Media-Watchblogs fordern, muss die gesellschaftliche Transformationspotenziale neuer Technologien in Betracht ziehen. Public Interest AI zeigt zudem, dass KI-Systeme für mehr Barrierefreiheit im Umgang mit digitalen Technologien sorgen können. Ethische und ökologisch entwickelte Systeme können zudem zu positivem gesellschaftlichen Wandel führen. Vor allem dann, wenn die entwickelten Systeme quelloffen sind.

Ein nachhaltiger Umgang mit Sprachmodellen und künstlicher Intelligenz auf individueller Ebene muss aber vor allem ein kritisches Abwägen darüber bedeuten, wann und inwiefern die Nutzung derartiger Technologien sinnvoll ist. Dabei bloß die Produktivitäts- und Zeitvorteile von Sprachmodellen zu betrachten, ist nicht nur zu kurz gedacht. Es ist in Anbetracht von Tech-Solutionism und den durch die Technologie verursachten ökologischen und sozialen Probleme auch zunehmend gefährlich.

dbu-logo

Dieser Artikel ist Teil des Dossiers „Digital und grün – Lösungen für eine nachhaltige Digitalisierung“, in dessen Rahmen wir Lösungen für eine ökologische und faire Digitalisierung vorstellen. Wir danken der Deutschen Bundesstiftung Umwelt (DBU) für die Projektförderung!

Du willst keinen Artikel zum Thema verpassen? Dann abonniere unseren Newsletter oder RSS-Feed und folge uns auf Mastodon, Bluesky oder LinkedIn!

The post Gibt es nachhaltige Sprachmodelle? Drei Perspektiven aus der aktuellen Debatte um KI und GenAI appeared first on Digital for Good | RESET.ORG.

Pass over the stars to rate this post. Your opinion is always welcome.
[Total: 0 Average: 0]

Das könnte Sie auch interessieren…

0 Kommentare