Kürzlich machte Google Schlagzeilen, weil es innerhalb weniger Monate bereits seine zweite leitende Forscherin zur Ethik in der KI gefeuert hat. Timnit Gebru und ihre Kollegin Margaret Mitchell forschten an dem Paper “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, in dem es um die Risiken von großen Transformermodellen wie BERT, GTP-3 oder Switch-C geht, die auf extrem umfangreichen aus dem Web extrahierten Textsammlungen trainiert werden. Neben den enormen energetischen Ressourcen, die zum Training benötigt werden, macht das Paper auch darauf aufmerksam, dass bei solch großen Datenmengen oftmals auch Bias (=Vorurteile, statistische Verzerrungen) mitgelernt werden. Zudem ist es schwierig, einen Überblick über die Qualität des Datensatzes zu bewahren und damit solchen ungewollten Begleiterscheinungen entgegenzuwirken.

In der heutigen Welt spielt Maschinelles Lernen (ML) in vielen Lebensbereichen eine immer größere Rolle. Von Streaming-Diensten, die uns anzeigen, welche Musik und welche Filme unseren bisherigen Geschmack treffen könnten oder die Frage unserer Kreditwürdigkeit, oder ob wir für ein Jobinterview eingeladen werden:
In immer mehr Fragen unseres menschlichen Lebens treffen zunehmend trainierte ML-Systeme diese Entscheidungen. Mit diesem immer größeren Einfluss von Machine-Learning-Algorithmen im alltäglichen Leben müssen auch wir als Entwickler uns einer immer größeren ethischen Verantwortung bewusst werden. Denn die Art, wie wir mit unseren Daten und unseren Algorithmen umgehen, hat einen großen Einfluss auf das gesellschaftliche Leben und auf das Leben von einzelnen Menschen. Dieser Artikel soll einen kleinen Einblick in einige ethische Fragen geben, die wir uns stellen müssen.

Ungerechte Entscheidungen und Bias in Machine-Learning-Algorithmen

Stellen Sie sich vor, ein Gesichtserkennungsalgorithmus entscheidet, ob Sie eine für ein Verbrechen gesuchte Person sind. In vielen Ländern wie den USA ist das bereits Realität. Allerdings konnten Forscher und Menschenrechtsaktivisten wiederholt zeigen, dass die verwendeten Systeme für Menschen mit dunkler Hautfarbe kläglich versagen:
Wissenschaftler zeigten beispielsweise, dass gängige Systeme für Gesichtserkennung von großen IT-Konzernen bei Frauen mit dunkler Hautfarbe bei der Erkennung ihres Geschlechts extrem unzuverlässig sind. Das geht soweit, dass in manchen Systemen die Wahrscheinlichkeit der korrekten Erkennung des Geschlechts bei einer Frau mit dunkler Hautfarbe der korrekten Vorhersage eines Münzwurfs ähnelt. Den Ursachen und Fallstricken durch den sog. “Bias” in ML-Systemen werde ich mich genauer in einem weiteren Artikel widmen.

Gravierende Auswirkungen von Fehlentscheidungen für den Einzelnen

Noch schockierender sind allerdings die Ergebnisse, die die American Civil Liberties Union im Jahre 2018 bei einem Test mit Fahndungsfotos und Amazons Gesichtserkennungsalgorithmus „Rekognition Scan“ machte: Bei einem Abgleich von Fotos von Kongressmitgliedern mit den Fahndungsfotos wurden 28 Mitglieder des Kongresses fälschlicherweise gesuchten Kriminellen oder Verdächtigen zugeordnet. Während etwa nur 20% Prozent der Mitglieder des Kongresses dunkle Hautfarbe besitzen, machten sie unter diesen Falschzuordnungen 40% aus. Auch hier wurde wieder ein massiver Bias zu Lasten der schwarzen Bevölkerung festgestellt. Gerade das letzte Beispiel macht aber auch deutlich, dass nicht nur der Bias an sich ein ethisches Problem im Maschinellen Lernen darstellt, sondern je nach Anwendungsgebiet sich Falsch-Positive Ergebnisse generell für betroffene Menschen gravierend auswirken können. Sensible Anwendungsbereiche erfordern daher eine viel höhere Präzision als „harmlose“ Anwendungen, bei denen Fehlentscheidungen kaum schlimme Konsequenzen nach sich ziehen.

Gefährden wir die Demokratie, indem wir Meinungsblasen erzeugen?

Während Algorithmen, die uns Inhalte nach unseren bisherigen Vorlieben vorsortieren zunächst harmlos erscheinen, kann dies gesellschaftlich dennoch Probleme nach sich ziehen. Gerade in sozialen Netzwerken, werden uns oft nur Inhalte von den immer selben Leuten angezeigt beziehungsweise Inhalte, die bisher auf unser Interesse gestoßen sind. Auch auf Videoplattformen werden uns so vor allem Videos gezeigt, die ähnliche Inhalte wie die bisher gesehenen enthalten. Auf diese Weise werden viele Leute vor allem in ihrer bisherigen Meinung bestärkt und kommen nur noch selten mit Menschen in Berührung, die ihren gegenwärtigen Ansichten widersprechen.
Dabei sind kontroverse Diskussionen und auch das Anhören verschiedener Ansichten und Meinungen wichtig für die Diskursfähigkeit und damit auch für unsere demokratische Gesellschaft. Je weniger Menschen daran gewöhnt sind, mit verschiedenen Argumentationen in Kontakt zu kommen, desto eher werden sie darin trainiert, auf andere Meinung von vornherein mit Ablehnung zu reagieren. Relativ harmlos wirkende Algorithmen könnten also die gesellschaftliche Spaltung fördern und das Diskursklima unserer Demokratie vergiften.

Warum wir uns nicht mit vermeintlicher Neutralität unserer Algorithmen aus der Verantwortung stehlen können

Natürlich gibt es noch viele weitere ethische Fragen im Bereich des maschinellen Lernens, zum Beispiel wer und wie Verantwortung für die Fehlentscheidung von autonomen Systemen übernimmt oder Fragen die den Datenschutz oder die Privatsphäre betreffen. Dies alles zeigt, dass auch wir Entwickler uns nicht frei von Ethik machen können, auch wenn wir vermeintlich ‚neutrale Systeme‘ entwickeln. Denn selbst mit den besten Absichten sind solche ‚neutrale Systeme‘ von ‚neutralen Entwicklern‘ nichts anderes als Abbilder unserer Realität beziehungsweise unserer Daten und diese sind am Ende immer auch Interpretationen der Welt, die im Endeffekt auch Auswirkungen in der realen Welt mit sich ziehen.