Bei starken Überschwemmungen erscheint im Internet eine Meldung: „Dieser Regen wird nicht klein sein, o, überall rot.“ Jemand, der mit der Formulierung nicht vertraut ist, könnte zögern. Aber für die Menschen in Nigeria ist die Botschaft unmittelbar und klar: Die Überschwemmungen sind schwerwiegend und verschlimmern sich.
Solche Momente passieren auf digitalen Plattformen immer wieder. Die Leute schreiben nicht in perfekten, standardisierten englischen Sätzen. Sie teilen Warnungen und Reaktionen auf Plattformen wie X, WhatsApp und Facebook in der Sprache des Alltags. Dies bedeutet manchmal, dass Englisch mit lokalen Ausdrücken, Slang und der Ausdruckssprache ihrer Gemeinschaften vermischt wird.
Künstliche Intelligenzsysteme können Sprache verstehen und eine Vielzahl von Problemen lösen. Regierungen und Organisationen nutzen zunehmend KI, um soziale Medien zu scannen, öffentliche Gespräche zusammenzufassen und sogar auf Umwelt- und Klimaprobleme zu reagieren.
Doch vielen dieser Tools fällt es schwer, die Art und Weise, wie Menschen tatsächlich kommunizieren, zu verstehen. Lokale Ausdrücke und Umgangssprache können die KI verwirren, sodass wichtige Botschaften manchmal missverstanden oder ganz übersehen werden.
Wenn man von Sprachbarrieren spricht, meint man oft die Übersetzung zwischen verschiedenen Sprachen. Aber das Problem ist subtiler. Auf der ganzen Welt vermischen Menschen online Sprachen und lokale Ausdrücke, ein Phänomen, das Linguisten „Code-Switching“ nennen.
Der Klimajournalismus verlagert sich zunehmend auf das Internet, doch in den Entwicklungsländern gibt es weniger Klimareporter. Dies schränkt die Tiefe und Verfügbarkeit von Informationen für einen großen Teil der Weltbevölkerung ein und prägt die Art und Weise, wie Klimafragen in verschiedenen Regionen diskutiert und verstanden werden.
Beispielsweise könnte ein britischer Social-Media-Beitrag ein Umweltproblem mit Ausdrücken wie „Sind die Straßen bereits überschwemmt? Freut mich, zu wissen, dass der Rat sich ärgert.“ Die meisten KI-Tools können den Sarkasmus und die Frustration auffangen, die sich gegen die lokalen Behörden richten.
In einem Land wie Nigeria beschreiben die Menschen die sich abzeichnenden Bedenken möglicherweise anders: „Abeg, ist es Oktober, wo der Regen so fällt, aber Sie sagen, das Klima ändert sich nicht?“ oder „Fluss Don in der Nähe unseres Hauses o! Abeg hilf, wir können alles verderben!“
Slang und Pidgin drücken hier eine unmittelbare Gefahr und einen dringenden Hilferuf aus. Doch KI-Modelle reduzieren dies oft auf beiläufige Kommentare und lassen die Dringlichkeit und Emotionen, die vermittelt werden, völlig außer Acht.
Dies ist wichtig, da die meisten KI-Systeme auf großen, auf den Westen ausgerichteten Texten, hauptsächlich aus Nordamerika und Europa, unterrichtet werden. ChatGPT beispielsweise ist auf große Mengen an Internettext angewiesen. Es gibt keine Überzeugungen, Gefühle oder Bewusstsein. Stattdessen generiert es Antworten auf der Grundlage von Mustern, die es online gesehen hat.
KI spiegelt in ihren Trainingsdaten die vorherrschende Kultur wider und trägt daher einen „kulturellen Fingerabdruck“. Es imitiert normale Ausdrucksweisen von Ideen aus den Gesellschaften, die die Texte hervorgebracht haben, aus denen es gelernt hat. KI-Modelle, die auf überwiegend englischsprachigen Texten trainiert wurden, zeigen eine versteckte Voreingenommenheit, die westliche kulturelle Werte bevorzugt, insbesondere wenn sie auf Englisch befragt werden.
Ein Hauptgrund dafür, dass KI zu verzerrten Ergebnissen führen kann, besteht darin, dass sie die gesellschaftlichen Ungleichheiten widerspiegelt, einschließlich der Unterschiede in Rasse, Geschlecht und Region, die sich in den Daten zeigen, aus denen sie lernt. Daher werden unterrepräsentierte Stimmen aus Gemeinschaften in Entwicklungsländern mit nicht-anglozentrischen Varianten des Englischen oft abgeschwächt oder ignoriert.
Diese Voreingenommenheit kann echte Konsequenzen haben. Bei Klimakrisen wie Überschwemmungen, Hitzewellen oder anderen extremen Wetterbedingungen können falsch interpretierte Nachrichten Eigentum und Leben gefährden.
KI-Systeme, die sich auf vergangene Muster stützen, sind leicht zu interpretieren, wenn die Sprache den erwarteten Standards entspricht. Beiträge, die nicht mit dem Vorhandensein von lokalem Slang oder Dringlichkeitshinweisen übereinstimmen, können jedoch falsch interpretiert werden.
Verbesserung der Reaktion auf Klimakatastrophen
Um dieses Problem zu lösen, müssen Systeme entworfen werden, die tatsächlich die Art und Weise widerspiegeln, wie Menschen kommunizieren. KI-Systeme müssen trainiert werden, um regionale Ausdrücke zu verstehen und zu erkennen, dass die Bedeutung häufig vom kulturellen Kontext und nicht nur von wörtlichen Wörtern abhängt.
KI sollte an echten Online-Beiträgen getestet werden, nicht an formellem, westlich ausgerichtetem Englisch, um Dringlichkeit und lokale Bezüge zu erfassen. Automatisierte Systeme können riesige Informationsmengen verarbeiten, doch das menschliche Urteilsvermögen muss auf dem Laufenden bleiben – insbesondere wenn die Sicherheit von Menschen auf dem Spiel steht.
KI-Tools können Gemeinden dabei helfen, auf Überschwemmungen, Hitzewellen und andere Klimanotfälle zu reagieren – allerdings nur, wenn sie darauf trainiert sind, die Nuancen der Alltagssprache zu interpretieren, damit Warnungen und Hilferufe ankommen.
Ifeoluwa Wuraola, Doktorandin, Künstliche Intelligenz, Universität Hull; Daniel Marciniak, Dozent für Kriminologie, Universität Hullund Nina Dethlefs, Professorin für Informatik, Loughborough-Universität
wird von The Conversation unter einer Creative Commons-Lizenz erneut veröffentlicht.
Hauptfoto von Chris Gallagher auf Unsplash