Algorithmen vs. Mensch: Über die Schwierigkeiten im Umgang mit Vorurteilen

Ein Gastbeitrag von Frank Preßler (IT.Niedersachsen)

In der aktuellen Diskussion positionieren sich viele Menschen an den Enden der möglichen Meinungsskala: Algorithmen sind entweder furchtbar und angsteinflößend oder aber der Heilsbringer. Die Wahrheit, sofern es überhaupt eine gibt, dürfte irgendwo dazwischenliegen. Nur wo? Das folgende Essay soll und kann lediglich kleine Ausschnitte und Beispiele beleuchten. Am Ende werden Sie sehen: Es ist alles viel komplexer als erwartet.

Es war an einem Mittwoch im Sommer 2018, als die Bundesregierung eine wegweisende Entscheidung traf: die Einrichtung der Datenethikkommission. Dieses sehr divers besetzte Gremium startete am 18.07.2018 mit einer klaren Mission. Es ging um nicht weniger als die Erarbeitung „ethischer Maßstäbe und Leitlinien sowie konkreter Handlungsempfehlungen für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter.“[1] Die kritische Netzgemeinschaft war unsicher und distanziert ob der Erwartungshaltung, und sie war größtenteils positiv überrascht, als das Ergebnis in Form von 240 Seiten am 23.10.2019 vorgestellt wurde. Das Gutachten hat unzweifelhaft den Auftrag erfüllt und könnte genau die Leitplanken setzen, die in Deutschland bisher gefehlt haben. Einige Gründe für die Notwendigkeit solcher Eckpfeiler werden im Folgenden skizziert.

Kann Verantwortung an Technik delegiert werden?

Als im Oktober 2017 die Fluglinie Air Berlin Pleite ging, stiegen kurz darauf die Ticketpreise des Anbieters Lufthansa um 25 bis 30 % im Vergleich zum Vorjahreszeitraum. Die Gründe waren offensichtlich, und anstatt dieses auch ehrlich zu kommunizieren, entschied sich der Chef der Lufthansa für die kühne Variante: Er gab den Algorithmen die Schuld.[2] Diese besondere Art der Verantwortungsabtretung war bis dato neu und doch zugleich nur ein Beispiel der vielfältigen Aspekte, die im Kontext einer Technikfolgenabschätzung bei KI[3]-Systemen zu betrachten sind. Die Gesamtverantwortung für algorithmendeterminierte Entscheidungen kann zweifelsfrei nur bei der die Algorithmen einsetzenden Firma und ihren Vertretern liegen. Auch im Sinne der Haftungsansprüche hat eine Firma bei fehlerhaften, autonomen Entscheidungen selbstverständlich mindestens im selben Maße zu haften, als wenn die (Fehl-)Entscheidung durch einen Menschen erfolgt ist. Die Datenethikkommission formuliert diese Leitplanke übrigens unter der Handlungsempfehlung Nr. 74.

Viel gravierender und alltagsrelevant sind die Probleme vorurteilsbehafteter Entscheidungen durch KI. Befürworterinnen und Befürworter algorithmischer Systeme sagen, dass diese in der Lage seien, im Gegensatz zum Menschen vorurteilsfreie Entscheidungen treffen zu können. Nicht nur deshalb sind solche Systeme beispielsweise bereits in einigen amerikanischen Staaten im Justizbereich im Einsatz.  Aber stimmt das auch?

Vorurteilsbehaftete Alt-Daten verfestigen Ungleichheit

In Österreich nutzt der dortige Arbeitsmarktservice AMS seit Ende 2018 Algorithmen zur Bewertung, ob sich Investitionen in Maßnahmen für Arbeitssuchende lohnen. Das Problem: Statistische Ist-Daten werden losgelöst vom Individuum zum Bewertungsmaßstab. Das Ergebnis: Wer weiblich und über 50 Jahre alt ist, wird algorithmisch aussortiert, weil sich Maßnahmen zur Wiedereingliederung in den Arbeitsmarkt nicht mehr lohnen würden. Mit anderen Worten: Der Algorithmus ist unzweifelhaft sexistisch und altersdiskriminierend[4]. Die Reaktionen auf die AMS-Algorithmen sind dementsprechend äußerst negativ.

Selbst wenn also die Algorithmen gut und bewusst vorurteilsfrei programmiert sind, was an sich schon eine Herausforderung birgt, bleibt wie zuvor skizziert das Problem der Datenbasis. Hierzu ein weiteres Beispiel: Mitte 2016 hat das Nachrichtenportal ProPublica umfangreich über einen Algorithmus namens COMPAS berichtet, der Zukunftsprognosen über Straftäter in Florida erstellt[5]. Das Ergebnis: Bei Angeklagten, die nach der Freilassung nicht wieder straffällig wurden, war die prognostizierte Rückfallwahrscheinlichkeit bei Schwarzen doppelt so hoch wie bei Weißen. Genau umgekehrt war es bei den Angeklagten, die erneut straffällig wurden: Hier wurden doppelt so viel Weiße als geringes Risiko eingestuft wie Schwarze. Warum was das so, wo doch der Algorithmus nachweislich die Hautfarbe nicht betrachtete?

Nun, im Kern handelt es sich um ein mathematisches Problem, das nicht auflösbar ist und zumindest in Teilen nur deshalb auftritt, weil die bisherige Rechtsprechung besonders in Amerika bewiesenermaßen vorurteilsbehaftet war. Mit anderen Worten: Der Algorithmus kann so gut sein wie möglich, die Ergebnisse sind gleichwohl von Vorteilen geprägt. Es gilt die alte Weisheit im Algorithmen-Umfeld: SISO[6]!  Für diese Problematik existiert der schöne Begriff des „Mathwashing“[7] als Parallele zum Greenwashing von Unternehmen. Der Algorithmenforscher Florian Cech vom Centre for Informatics and Society der TU Wien bringt es auf den Punkt: „Mathematik hat nur den Anschein von Objektivität.“ Dann jedoch beseitigen Algorithmen nicht etwa Vorurteile, ganz im Gegenteil werden sie sogar institutionalisiert und verfestigt. Wenn dann noch selbst-lernende Systeme hinzukommen, deren exakte Funktionsweise mitunter selbst ihre Designer nicht mehr vollständig erklären können, werden am Ende der Kette noch viele Unternehmen in die Fußstapfen der Lufthansa treten und sagen: „Die Algorithmen sind es gewesen.“ Es ist daher nachvollziehbar, dass die Datenethikkommission Transparenz und Nachvollziehbarkeit von algorithmischen Systemen als elementare Anforderung definiert und den Staat in die Pflicht nimmt, dafür nötige Institutionen und Gütesiegel zu etablieren (ab Handlungsempfehlung 55 ff.).

Widerspruch ist reine Theorie

Aus verhaltenspsychologischer Sicht ergibt sich ein weiteres Problem, das signifikant ist. Wer mag algorithmengetriebenen Entscheidungen widersprechen? Nur beispielhaft seit Art. 22 DSGVO genannt, aus dem sich ein europaweites Recht ableitet, dass Menschen einen Anspruch auf eine „nicht ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung“ (Art. 22 Abs. 1 DSGVO) haben. Soweit die Theorie. Man stelle sich in der Praxis nun ein System wie das beim österreichischen AMS vor. Ein System, das für sehr viel Geld entwickelt wurde und in dem auch politische Erwartungen stecken. Man stelle sich weiterhin vor, dass dieses System in Bezug auf den ihm inhärenten Auftrag eine bestimmte Bewertung für eine bestimmte Person auswirft. Die Sachbearbeiterin oder der Sachbearbeiter im AMS erhält die Bewertung und wird was tun? Diese Bewertung ignorieren? Sie gar überstimmen? Eine solche Erwartung ist vollkommen unrealistisch, vielmehr darf erwartet werden, dass die automatischen Entscheidungen zu 100 % von den Menschen übernommen und als die ihren im Sinne der DSGVO ausgegeben werden.

Aber Entscheidungen von Maschinen können richtig oder falsch sein. Die Bewertung von Informationen in beliebiger Tiefe und Menge erfolgt auf der Basis von Wahrscheinlichkeiten. Auch die oben genannten Systeme im Justizbereich oder von AMS errechnen im Kern nur einen Wahrscheinlichkeitswert für eine bestimmte Aussage. Sehr viele Entscheidungsfehler, egal ob durch Maschinen oder Menschen, entstehen jedoch durch mangelhafte Kenntnisse über statistische Effekte. Oftmals versagt hierbei die Intuition, wenn Wahrscheinlichkeiten für bestimmte Ereignisse zu schätzen sind. Oder wissen Sie, wie wahrscheinlich es ist, dass bei 23 Akteuren auf einem Fußballfeld (zwei Teams à elf Spielerinnen plus Schiedsrichterin) zwei von ihnen am selben Tag Geburtstag haben, ohne Beachtung des Geburtsjahres? Die Lösung ist ohne Zweifel kontraintuitiv[8], und sicherlich sind Algorithmen genau dafür prädestiniert, in solchen Fällen keine Fehler zu machen. Das spricht für sie; die daraus abgeleitete und behauptete Fehlerlosigkeit und damit verbundene widerspruchsfreie Akzeptanz des Outputs jedoch ist das Problem, das zu schlechten Entscheidungen führen kann.

Menschen führen Maschinen, nicht umgekehrt

Was folgt aus alledem? Nun, das Denken in Wahrscheinlichkeiten ist oftmals abstrakt und nur schwer greifbar. Maschinen treffen von sich aus keine besseren Entscheidungen als Menschen. Sie sind ebenso stark anfällig für Vorurteile und Bewertungsfehler, und niemand kann mathematische Grundlagen ändern. Wenn aktuelle Systeme lediglich auf Basis von historischen Ist-Daten arbeiten, so werden frühere, diskriminierende und menschengemachte Entscheidungen in die Zukunft in Form von maschinengemachten Entscheidungen fortgeschrieben. Das kann nicht das Ziel sein. Es muss parallel zum Ist-Stand einen Soll-Stand geben, der tatsächlich diskriminierungsfreie Ergebnisse vorsieht. Der Weg ist dann das Ziel: der sukzessive Übergang und die Überwindung aller Varianten von Vorurteilen. Andere Staaten sind wie in vielen Bereichen der Digitalisierung schon weiter. Das oft zitierte Vorreiterland Estland wird sicherlich nicht naiv in die oben skizzierten Fallen tappen, sondern schon aufgrund des langjährigen Erfahrungsvorsprungs auf Algorithmen setzen, die Vorurteile nicht manifestieren, sondern eliminieren.

Eine künftige Lösung wird in der Symbiose von Maschinen und Menschen liegen, indem beide ihre Stärken ausspielen: Maschinen können Daten vorsortieren und Muster entdecken, besser als alle Menschen. Ein abschließendes Urteil muss jedoch immer einem Menschen obliegen, da uns ansonsten auch das verloren geht, was uns selbst ausmacht: das Menschsein als solches. Diese Art der menschenzentrierten und werteorientierten Gestaltung von Technologie ist die maßgebliche Leitplanke der Datenethikkommission. Sie zu erfüllen ist die Aufgabe aller, die an algorithmischen Systemen arbeiten oder selbige nutzen. Dann kann und wird KI eines Tages genau die Unterstützung sein, die von ihr schon heute erwartet wird.

Autor: Frank Preßler

[1] Datenethikkommission „Gutachten der Datenethikkommission“ (2019): S. 13

[2] https://www.spiegel.de/wirtschaft/unternehmen/lufthansa-kartellamt-kritisiert-begruendung-fuer-teure-tickets-a-1185247.html

[3] Ich benutze die Begriffe KI und Algorithmen synonym, zumal es eine KI im engeren Sinne bisher nicht gibt.

[4] https://www.zeit.de/2019/20/digitale-verwaltung-behoerden-aemter-effizienzsteigerung-probleme

[5] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[6] Shit in, shit out.

[7] https://www.mathwashing.com

[8] Die überraschende Lösung lautet: 50,73 %.

Frank PreßlerFrank Preßler
IT.Niedersachsen

Digitaler Fingerabdruck:
Das Leben ist ein Rad – alles kommt wieder. Wer New Work und Wissensarbeit verstehen will, muss lediglich rund 40 bzw. 60 Jahre in Richtung Frithjof Bergmann und Peter F. Drucker zurückschauen. Digitalität wird helfen, die alten Konzepte endlich zu realisieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert