AI Frameworks

Der Künstler Adam Harvey spricht über Datenmodellierung und AI, AI-Traps Konferenz, Panel "THE TRACKED & THE INVISIBLE: From Biometric Surveillance to Diversity in Data Science", Berlin 2019
Kann man einer Künstlichen Intelligenz ein Gewissen beibringen? Zum Stand der Ethik-Debatte in der AI im Gastbeitrag von Roland Fischer.

Künstliche Intelligenz ist nicht nur deshalb in aller Munde, weil sie faszinierende Tricks vollführen kann – wie Katzen auf Bildern erkennen oder ein Auto mehr oder weniger souverän durch den Stossverkehr dirigieren. Tatsächlich hatten wir es wohl noch nie mit einer Technologie mit grösserer Eindringtiefe in gesellschaftliche Realitäten zu tun, oder anders gesagt: Was KI tut, kann ganz direkt Auswirkungen auf uns haben – im Bewerbungsverfahren, bei der Preisberechnung eines Flugs, bei der Spiegelung der politischen Verhältnisse auf Social Media. Wir sollten also sicherstellen, dass diese gesellschaftliche Ebene auch mitgedacht wird, wenn solche – laut den Betreibern ja immer möglichst “benutzerfreundlichen” – Systeme gebaut und optimiert werden. Wenn ein Automotor optimiert werden soll, braucht man dazu keine komplexen ethischen Richtlinien. Bei Algorithmen ist das anders, weil sie nicht einfach die digitale Maschinerie am Laufen halten, sondern sehr konkret Situationen bewerten, die jeden von uns direkt betreffen.

Und tatsächlich tut sich da in letzter Zeit so einiges: „AI accountability“ oder „fairness, transparence of neural networks“ – es wimmelt momentan von Fachartikeln, die KI gewissermassen ein soziales Gewissen verpassen möchten, Konferenzen zum Thema „AI Bias“ häufen sich, manche Unis installieren gleich ganze Professuren im Themenfeld „gerechte/sozialverträgliche KI“. In Genf fand im Mai ein von den Vereinten Nationen organisierter „AI for Good“-Summit statt, es ging da um technik-unterstützte Entwicklungszusammenarbeit, um Diskriminierung vs. Inklusivität und sehr pauschal um die Möglichkeit, kluge Maschinen zum Besten der Menschheit zu nutzen. An der AI Traps-Konferenz des Disruption Network Lab in Berlin dagegen war man eher skeptischer und kapitalismuskritischer, was KI und soziales Gewissen angeht. Denn letztlich sind die Entwicklungen im KI-Feld von den grossen privatwirtschaftlichen Playern und damit von Marktlogik getrieben, und man darf sich zu Recht fragen, wie sich Profitmaximierung mit ethischen Fragen verträgt. Nach welchen Kriterien werden Youtube oder Facebook versuchen, ihre Inhalte zu moderieren oder zu filtern? Die Klickrate der Nutzer und damit die Werbeeinnahmen dürften da nach wie vor das Mass der Dinge sein, nicht etwa ethische Prinzipien, die sich in den Kennzahlen negativ auswirken könnten.

Trotzdem: Es ist auffällig, wie viele Bemühungen es weltweit derzeit gibt, Künstliche Intelligenz ethisch „abzusichern“. Die Silicon Valley-Riesen lancieren reihenweise firmeneigene Ethics Boards. Dasjenige von Google namens „Advanced Technology External Advisory Council“ löste sich mit ziemlichem Krach gleich nach seiner Einsetzung gleich wieder auf, als “anti-trans, anti-LGBTQ and anti-immigrant”-Kommentare eines Mitglieds bekannt wurden. Und das von Facebook muss seine Rolle als eine Art Superzensor erst noch finden, für all die kontroversen Fälle, welche tausende von Moderatoren an der ethisch-moralischen „Conten-Moderation-Front“ nicht einfach in Sekundenschnelle wegklicken können. Neben den Ethikboards gibt es reihenweise Verbandsrichtlinien aus Ingenieurskreisen und Papiere auf politischer Ebene. Diese versuchen in wohlklingenden und meist eher vagen Worten auf die Risiken von KI hinzuweisen, ohne deren Chancen allzu sehr zu beschneiden. Zu den bekannten Risiken zählt der Trainingsdaten-Bias, die unbeabsichtigte Diskriminierung mancher Nutzergruppen, weil die Trainingsdaten nicht repräsentativ waren. So lernt eine KI zum Beispiel nach wie vor viel zu oft, vorwiegend weisse Männer „korrekt“ zu behandeln. Andererseits werden ihr auch gesellschaftliche Vorurteile eingeschreiben, zum Beispiel anhand von Polizeidaten, in denen Schwarze viel öfter als Straftäter auftauchen.

Ob die mit diesen Massnahmen angestrebten moralischen Ideale für die Maschine mehr sein werden als schöne Worte auf unverbindlichem Papier, wird sich erst zeigen, wenn KI öfter zur Verantwortung gezogen wird, womöglich auch mal vor Gericht. Wenn ihr also nach sehr menschlichem Ermessen Grenzen gesetzt werden. Und wenn Antidiskriminierungsgesetze ganz selbstverständlich nicht nur für menschliche, sondern auch für maschinelle Entscheide gelten.

Interessant ist immerhin, dass die Vorstellungen von richtig und falsch im Zusammenhang mit autonom entscheidenden Systemen kulturunabhängig zu sein scheinen. Als die chinesische Regierung unlängst eigene „AI ethics guidelines” vorstellte, waren westliche Tech-Experten überrascht, wie ähnlich der ethische Rahmen im Osten gezimmert ist, und wie klar es den Chinesen ist, dass man die Herausforderung nur mit einem globalen Ansatz meistern kann.

Ein grosser Zweifel aber bleibt, und er ist systemimmanent. Vorgeführt bekam man das im April an der Women in Data Science-Konferenz in Zürich, zu der sich über zweihundert Frauen (und auch eine Handvoll Männer) trafen, um sich ausserhalb der ansonsten von Männern dominierten Branchentreffen auszutauschen. Man war da überrascht, wie viel Platz neben den Business Cases und den tollen Möglichkeiten für Daten-Expertinnen den “Soft Skills” eingeräumt wurde, die KI-Algorithmen in Zukunft auch beherrschen sollten. Gleichzeitig zeigte sich in den Diskussionen in aller Deutlichkeit, dass auch den achtsamsten Ingenieurinnen und Ingenieuren schlicht das Rüstzeug fehlt, um diese Aufgabe auf befriedigende Weise anzugehen. Das Mindset: Wie kann man Fairness in ein KI-System einbauen? Indem man erstens Fairness eindeutig definiert, zweitens einen quantitativen Parameter für sie entwickelt und drittens dann eigentlich nichts weiter zu tun braucht, als diesen beim Training auch mit einzubeziehen. Klingt nach einer simplen Sache: Man muss dem blinden Fleck bloss das Sehen beibringen. Dass gesellschaftliche Kategorien wie Fairness und Diskriminierung kontingent sind, d.h. immer wieder neu verhandelt werden müssen, dass es da womöglich sich widersprechende Parameter gibt, diese für jeden Sozialwissenschaftler banale Erkenntnis muss den Datennerds erst noch dämmern.

Es gibt keine Optimierungsfunktion für ethisch richtiges Verhalten. Zu lösen wird dieses Problem nur sein, wenn die entsprechenden Experten nicht nur in den Ethics Boards sitzen, sondern direkt in den Teams, welche Machine-Learning-Tools entwickeln. KI ist die Technologie, anhand derer wir die “Ingenieurs-Bubble” endlich zum Platzen bringen müssen: den Solutionismus (die Vorstellung, dass jedes Problem mit Technologie gelöst werden kann), der allzu oft ein verkleideter Positivismus ist und der nur Zahlen glaubt. KI-Entwicklung sollte bedeuten, in echter Transdisziplinarität über Fair-Tech nachzudenken, und zwar in den grossen Firmen, die diese Tech bauen. Wir brauchen Soziologen, Politologen, Philosophen direkt in diesen Teams, wir brauchen sie am Anfang des Prozesses, nicht an dessen Ende. Nur so wird Fairness auf vernünftige Weise zu „implementieren“ sein – und bei der Gelegenheit könnten wir diesen simplifizierenden Begriff vielleicht auch gleich entsorgen. Es ist eine komplexe Aufgabe, faire Algorithmen zu entwickeln, und für die braucht es komplexe (und möglichst diversifizierte, auch auf der Ebene der Expertise) Teams.

Roland Fischer ist Wissenschaftsjournalist und Kurator, unter anderem hat er die Ausstellungen „Frankenstein – Von Mary Shelley zum Silicon Valley“ im Strauhof Zürich und die «Re/public – öffentliche Räume in digitalen Zeiten» im Polit-Forum Käfigturm Bern co-kuratiert.