Suchen

Fehlende Sprachvielfalt: Warum KI-Systeme globale Ungleichheiten verstärken – und wie wir das ändern können

We are an online community created around a smart and easy to access information hub which is focused on providing proven global and local insights about sustainability

29 Juli, 2025

This post was originally published on Reset

Die Welt der künstlichen Intelligenz (KI) wird noch immer von wenigen großen Akteuren dominiert. Während KI immer mehr Bereiche des täglichen Lebens erobert – etwa in der Art und Weise, wie wir im Internet nach Informationen suchen bis zur öffentlichen Verwaltung – wird es immer deutlicher, dass KI-Technologien in erster Linie für bestimmte Bevölkerungsgruppen entwickelt wurden. Für diejenigen, die Englisch, Mandarin und eine Handvoll weiterer kommerziell wertvoller Sprachen sprechen, war KI von Anfang an nutzbar. Die meisten von uns halten das für selbstverständlich. Dabei ist es allerdings nur allzu leicht, das Privileg zu übersehen, sich in einer Onlinewelt zurechtzufinden, die von vornherein für die eigene Person konzipiert, optimiert und entwickelt wurde.

Aber was ist mit Menschen, die eine der Tausenden anderen Sprachen sprechen, die diese Modelle nicht verstehen? Das große Versäumnis von KI-Unternehmen bei der Berücksichtigung von Minderheitensprachen hat weitreichende Folgen. Und diese werden zu allem Übel auch nur recht spärlich erforscht.

Eine andere Zukunftsversion für KI

Forscher:innen, Ingenieur:innen und öffentliche Einrichtungen im gesamten globalen Süden stellen zunehmend in Frage, dass die Führungsrolle im KI-Bereich ausschließlich den sprachlichen und technologischen Supermächten vorbehalten ist.

Nirgendwo wird das so deutlich wie in Afrika. Auf dem Kontinent, der sich über fast ein Fünftel der Landmasse der Erde erstreckt, gibt es über 2.000 Sprachen. Eine im März 2025 durch AfroBench durchgeführte Studie, die die Leistung großer Sprachmodelle (LLM) für 64 afrikanische Sprachen bewertet, ergab „erhebliche Leistungsunterschiede“ zwischen Englisch und den meisten der untersuchten Sprachen.

Odunayo Ogundepo, einer der Forschenden bei AfroBench, erklärte gegenüber RESET, warum ihn das überhaupt nicht schockiert:; „Unsere erste Reaktion war, dass uns die Ergebnisse nicht wirklich überraschten. Aber natürlich war es trotzdem enttäuschend, das Ausmaß der Versäumnisse zu sehen“. Er erklärte, dass das Training von KI-Modellen von der Menge der verfügbaren Webdaten abhängig ist. Bedeutet, dass Sprachen, die online weniger vertreten sind, eine Hürde für die KI-Optimierung darstellen, da es einfach weniger Trainingsmaterial gibt.

Ogundepo verweist auch auf die Marktdynamik als Erklärung für das große Leistungsgefälle. „Ein Großteil des [globalen] Verbrauchermarktes spricht eine dominante globale Sprache“. Daher ist es für die Hersteller attraktiver, sich auf Märkte zu konzentrieren, auf denen sie den größten Gewinn mit ihren Produkten und Dienstleistungen erzielen können. Und obwohl Afrika ein sprachlich vielfältiger Kontinent mit fast 1,5 Milliarden Menschen ist – eine Zahl, die schnell wächst – „spricht ein großer Teil der afrikanischen Gemeinschaft bereits Englisch, Französisch oder Portugiesisch. Das verringert die wahrgenommene Dringlichkeit der Unterstützung lokaler Sprachen zusätzlich.“. Doch das ändert nichts daran, dass es wichtig ist, diese Lücken zu schließen.


An African woman sitting at a laptop



„Ein großer Teil der afrikanischen Gemeinschaft spricht bereits Englisch, Französisch oder Portugiesisch, was die Dringlichkeit der Unterstützung lokaler Sprachen verringern könnte. – Odunayo Ogundepo

Die mangelnde Sprachvielfalt der KI hat Auswirkungen auf das reale Leben

Gesellschaften, deren Sprachen in modernen digitalen Systemen nicht vertreten sind, geraten in einen sich wiederholenden Kreislauf der Ausgrenzung. Denn sie können nicht an den Vorteilen der KI und den damit verbundenen Fortschritten teilhaben. Für viele Länder des globalen Südens steht auch geopolitisch viel auf dem Spiel. Die Abhängigkeit von westlicher oder chinesischer KI-Infrastruktur bedeutet womöglich auch ein verzerrtes globales Narrativ und eine geringere Souveränität über wichtige Informationen.

Die Folgen können lebensbedrohlich sein. So stellten beispielsweise lokale Behörden in ländlichen Gebieten Indonesiens, die versuchten, IT-Systeme für das Gesundheitswesen einzuführen, gravierende Übersetzungsfehler in den Minderheitensprachen Javanisch und Sundanisch fest. Und das führte wiederum zu schwerwiegenden Missverständnissen bei der Dosierung von Medikamenten.

Interessant ist auch der geschäftliche Nutzen einer größeren Sprachvielfalt in KI-Systemen. Unternehmen, die in aufstrebende Märkte expandieren wollen, stellen fest, dass die sprachliche Integration eine Akzeptanz steigert. Eine Studie von Common Sense Advisory aus dem Jahr 2025 zeigte, dass mehr als drei Viertel der Online-Konsument:innen es vorziehen, Produkte mit Informationen in ihrer Muttersprache zu kaufen.

Die technologische Voreingenommenheit vermittelt die subtile, aber wirkungsvolle Botschaft, dass einige Sprachen – und damit auch ihre Sprecher – weniger wichtig sind. Und wie immer sind es die gleichen Sprecher:innen, die wichtiger sind. „Wenn Englisch den Trainingsprozess dominiert, werden die Antworten durch eine westliche Linse gefiltert“, sagt Mekki Habib, ein Robotikprofessor an der American University in Kairo. Ohne gezielte Maßnahmen zur Förderung der sprachlichen Vielfalt in der KI steuern wir auf eine technologische Monokultur zu, die bestehende Machtungleichgewichte widerspiegelt und verstärkt, anstatt sie zu mildern.

InkubaLM ist eine Blaupause für kleine, leistungsstarke KI-Modelle

Doch es werden auch wichtige Anstrengungen unternommen, diese Lücke zu schließen. InkubaLM, entwickelt von Lelapa AI, ist ein generatives Modell, das auf fünf afrikanische Sprachen trainiert wurde. IsiZulu, Yoruba, Hausa, Swahili und IsiXhosa werden von rund 364 Millionen Menschen auf dem gesamten Kontinent gesprochen. Benannt nach dem Zulu-Namen für einen Mistkäfer – ein Tier, welches das 250-fache seines Gewichts bewegen kann – soll InkubaLM eine Blaupause für die Leistungsfähigkeit und Effizienz kleinerer KI-Modelle liefern.


A dung beetle on ball of dung held by fingertips



Der mächtige Mistkäfer ist in der Lage, das 250-fache seines Gewichts zu bewegen.

InkubaLM-0.4B wurde von Grund auf mit einem Datensatz von insgesamt 2,4 Milliarden Token trainiert. Darunter befinden sich 1,9 Milliarden Token speziell aus den afrikanischen Sprachen, ergänzt durch englische und französische Daten. Das Modell ist die erste von hoffentlich vielen Initiativen, mit denen sichergestellt werden soll, dass afrikanische Gemeinschaften Zugang zu Tools für maschinelle Übersetzung, Sentimentanalyse, Named Entity Recognition (NER), Parts of Speech Tagging (POS), Question Answering und Topic Classification für ihre Sprachen erhalten.

Wie Ogundepo sagt, muss aber nicht nur die Datenmenge verbessert werden, um die Nutzbarkeit für die Gemeinschaften zu erhöhen. Es sei von entscheidender Bedeutung, dass die Entwickler von LLMs für „ressourcenarme Sprachen“ die spezifischen Anwendungsfälle in den Regionen berücksichtigen, in denen sie eingesetzt werden sollen. „Die dringendste Maßnahme, die die globale KI-Gemeinschaft ergreifen muss, ist die Erstellung qualitativ hochwertiger Evaluierungsdatensätze in afrikanischen Sprachen, die wirklich widerspiegeln, wie diese Modelle in realen Kontexten verwendet werden. Es nützt nichts, wenn ein Team von Entwickler:innen im Silicon Valley ein LLM für Yoruba-Sprecher in Benin entwickelt. „Wir brauchen Benchmarks, die den tatsächlichen Nutzen erfassen – nicht nur akademische Übungen, sondern Evaluierungen, die echte Anwendungsfälle für afrikanische Gemeinschaften darstellen.“

InkubaLM stützt sich auf zwei wichtige Datensätze: Inkuba-Mono, eine einsprachige Sammlung der fünf afrikanischen Sprachen sowie Englisch, Französisch und Inkuba-Instruct, das dazu dient, das Verständnis von Unterricht in diesen Sprachen zu verbessern. Es wurde in Zusammenarbeit mit lokalen Linguist:innen und Gemeinschaften entwickelt, um sicherzustellen, dass die Funktionalität des Modells über die reine Sprache hinausgeht und sowohl die Ressourceneffizienz als auch die kulturelle Relevanz berücksichtigt, so dass es für afrikanische Gemeinschaften wirklich nützlich ist.

Kann KI den Sprecher:innen von Minderheitssprachen gerecht werden?

Die KI hat bereits einen großen Teil dazu beigetragen, dass sich ungerechte globale Machtstrukturen verfestigen. Wirtschaftliche Ungleichheiten werden zunehmend bedeutender und bestimmte Kulturen werden untergraben. Die sprachliche Ausgrenzung ist nur ein Beispiel; sogenannte Bias‘ der KI bei der Bilderzeugung, der Fotoerkennung und der Verwendung von Literatur als Trainingsmodell ohne Zustimmung sind allesamt erschwerende Faktoren. Aber die Auswirkungen reichen noch weiter.

Sprecher:innen von Minderheitensprachen, die bereits um ihre digitale Eingliederung kämpfen, stehen oft an vorderster Front in der Klimakrise. Denn sie leiden am meisten unter ihren Folgen. Und der ökologische Impact der künstlichen Intelligenz verschlimmert das noch einmal auf besorgniserregende Weise.

Um es klar zu sagen: KI ist unglaublich ressourcenintensiv. Die ausgefeilten LLMs, die wir bewundern – und die sich mit Xhosa oder Yoruba abmühen –, benötigen unglaubliche Mengen an Energie und, wie wir gerade erst zu verstehen beginnen, Wasser. Datenzentren, die riesigen, surrenden Gehirne, die KI zum Funktionieren brauchen, benötigen riesige Mengen an Wasser zur Kühlung. Berichten zufolge könnte der weltweite Wasserbedarf für KI bis 2027 4,2 bis 6,6 Milliarden Kubikmeter erreichen. Das sind mehr als 50 Prozent des jährlichen Wasserverbrauchs des Vereinigten Königreichs im Jahr 2023.

Betrachten wir nun, wo diese Rechenzentren gebaut werden: In Regionen, in denen sich große Landstriche in Klimaregionen mit geringer Luftfeuchtigkeit befinden. Und diese Regionen sind zufällig auch diejenigen, in denen bereits Wasserknappheit herrscht. Das bedeutet, dass der unstillbare Durst der künstlichen Intelligenz direkt mit den lokalen Gemeinden um lebenswichtige Wasserressourcen konkurriert und die bestehenden Dürreperioden verschärft.

data centre construction

Im Jahr 2004 kämpften Aktivist:innen in Uruguay erfolgreich für das Recht auf frisches Trinkwasser. Zwei Jahrzehnte später berufen sie sich auf eben dieses Recht, um gegen das neue Rechenzentrum von Google vorzugehen. Dieses wird schätzungsweise zwei Millionen Liter Wasser pro Tag verbrauchen, während Uruguay die schwerste Dürre seit 70 Jahren erlebt.

Hier gibt’s mehr über den versteckten Wasser-Fußabdruck von KI-Systemen.

Der Abbau von Seltenen Erden für KI-Hardware ist ebenfalls mit hohen ökologischen und sozialen Kosten verbunden. Die Gewinnung und Reinigung der Materialien für die Herstellung von Halbleitern ist bekanntermaßen schwierig, und sie werden häufig in Ländern mit schwachen Umwelt- und Arbeitsschutzbestimmungen abgebaut. Die in der Nähe dieser Minen lebenden Gemeinschaften, oft indigene Gruppen oder Minderheiten, sind regelmäßig mit Landverschlechterung, Wasserverschmutzung und Menschenrechtsverletzungen konfrontiert. Vieles davon kann direkt mit auf KI-Hardware zurückgeführt werden. Dennoch werden sie selten direkt miteinander in Verbindung gebracht.

Und was passiert dann mit dieser Hardware, wenn sie durch Hitze gekocht und unbrauchbar geworden ist? Natürlich geht sie als Elektroschrott zurück in die rohstoffarmen Gemeinden im globalen Süden.

Lass das einmal auf Dich wirken: Während es zweifellos der globale Norden ist, der KI-Systeme entwickelt, nutzt und von ihr profitiert, werden die endlichen Ressourcen, die aus Ländern im globalen Süden herausgeholt werden, als Elektroschrott wieder dort hingebracht, ohne dass die Region überhaupt davon profitiert.

E-waste in Ghana

Die Rechenzentren vieler gängiger KI-Anwendungen erfordern große Mengen an Computerhardware für die Datenverarbeitung und das iterative Training. Diese Hardware hat eine extrem begrenzte Lebensdauer. Es ist nicht ungewöhnlich, dass die für KI verwendeten Grafikprozessoren (GPUs) in Rechenzentren nur ein paar Jahre halten.

Für mehr Infos zur Halbwertszeit von KI-Rechenzentren und dem dabei anfallenden Elektroschrott dem Link folgen!

Ist eine grüne, gerechte Zukunft für KI möglich?

Eine grüne und gerechte Zukunft für KI ist nicht nur möglich, sondern zwingend erforderlich. Daher ist die derzeitige Entwicklung, bei der Minderheitensprachen im KI-Ökosystem übersieht, äußerst problematisch. Aber es geht nicht nur um sprachliche Ausgrenzung, sondern auch um ökologische Ausbeutung. Denn wir steuern auf eine Zukunft zu, in der die Vorteile einiger weniger Menschen auf Kosten vieler – und des Planeten – aufrechterhalten werden.

nachhaltige Digitalisierung

Wie sieht eine grüne digitale Zukunft aus?

Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint  die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:

Initiativen auf lokaler Ebene bieten einen starken und praktischen Ausgangspunkt für einen nachhaltigeren Weg. Während diese Modelle „aufgrund von Kapazitätsbeschränkungen im Vergleich zu ihren globalen Pendants in einem viel kleineren Maßstab operieren“, wie Ogundepo betont, hat genau diese Beschränkung einen überraschenden Vorteil: Sie zwingt sie dazu, intelligenter zu sein.

„Die Realität ist, dass begrenzte Rechenressourcen afrikanische Forschender und Entwickler:innen dazu zwingen, der Effizienz den Vorrang vor dem Umfang zu geben, was zu Innovationen bei der Modelloptimierung und ressourcenbeschränkten Ansätzen führen könnte. Dieser von der Notwendigkeit getriebene Fokus auf Effizienz könnte als wertvolles Modell für die globale KI-Gemeinschaft dienen, um umweltfreundlichere Praktiken zu übernehmen.

Für eine wirklich nachhaltige und gerechte Zukunft braucht die KI-Entwicklung jedoch eine Revolution. Es gibt verschiedene Ansichten darüber, wie wir dies erreichen können, oder ob es überhaupt möglich ist. Letztlich muss sie von der westlichen Hegemonie entkolonialisiert, demokratisiert werden, um eine gerechte Verteilung der Vorteile zu gewährleisten. Und KI muss für ihren ökologischen Fußabdruck zur Verantwortung gezogen werden. Die Zeit wird zeigen, ob sich die Krallen von Big-Tech genug lockern, um dies zu ermöglichen.

dbu-logo

Dieser Artikel ist Teil des Dossiers „Digital und grün – Lösungen für eine nachhaltige Digitalisierung“, in dessen Rahmen wir Lösungen für eine ökologische und faire Digitalisierung vorstellen. Wir danken der Deutschen Bundesstiftung Umwelt (DBU) für die Projektförderung!

Du willst keinen Artikel zum Thema verpassen? Dann abonniere unseren Newsletter oder RSS-Feed und folge uns auf Mastodon, Bluesky oder LinkedIn!

The post Fehlende Sprachvielfalt: Warum KI-Systeme globale Ungleichheiten verstärken – und wie wir das ändern können appeared first on Digital for Good | RESET.ORG.

Pass over the stars to rate this post. Your opinion is always welcome.
[Total: 0 Average: 0]

Das könnte Sie auch interessieren…

0 Kommentare