Uni-Tübingen

Newsletter Uni Tübingen aktuell Nr. 2/2019: Schwerpunkt

Was dürfen Maschinen entscheiden?

Künstliche Intelligenz und Ethik

Prof. Dr. Regina Ammicht Quinn ist seit 2002 Professorin für Ethik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Als Mitglied des Lenkungskreises im Exzellenzcluster "Maschinelles Lernen in der Wissenschaft" der Universität Tübingen und des Lenkungskreises Plattform "Lernende Systeme" des Bundesministeriums für Bildung und Forschung beschäftigt sie sich mit dem Thema Ethik und Künstliche Intelligenz. Mareike Manzke hat sie interviewt.

Welche ethischen Fragen wirft der Einsatz von Künstlicher Intelligenz (KI) auf?

Einer der Kernpunkte ist die Frage nach den Daten. Wenn KI in verschiedensten Gesellschaftsbereichen von Gesundheit über Mobilität bis hin zu Strafverfolgung und Alltagsverrichtungen eingesetzt wird, bedarf es großer Mengen an Daten aus diesen Bereichen. Damit entstehen Probleme des Datenschutzes, der Datenintegrität (wie "gut" sind die Daten, mit denen gearbeitet wird?) und der richtigen Auswahl von Daten für den jeweiligen Zweck (wie repräsentativ sind die Daten z.B. für eine plurale Bevölkerung?). Zum Beispiel kommt es bei der Berechnung der Kreditwürdigkeit durch die Schufa immer wieder zu Fehlern bzw. Ungerechtigkeiten. Die Gründe hierfür liegen zumeist in der falschen Gewichtung und Zuordnung von Daten oder schlicht einer unpräzisen Verallgemeinerung von Daten, die man über ein bestimmtes Wohngebiet hat. Wenn in der Nachbarschaft einer Person viele Menschen leben, die ihre Kredite nicht ordnungsgemäß abzahlen, dann können auch andere Personen in diesem Gebiet als nicht kreditwürdig eingestuft werden. Das ist ein typisches Problem statistischer und prognostischer Methoden, das aber durch KI erweitert und gleichzeitig intransparenter wird. Ethische Überlegungen etwa zu Diskriminierungsfreiheit, Sorgfaltspflichten und Datenschutzstandards müssen daher von Beginn an Teil von Softwareentwicklung und Systeminfrastruktur sein.

Weitere grundlegende Probleme stellen sich mit den Überwachungspotenzialen, die durch KI möglich sind. Hier ist z. B. an den Echtzeitabgleich von Bewegungsmustern oder die intelligente Gesichtserkennung zu denken. Außerdem ist es elementar, die Auswahl der Anwendungsgebiete von KI in den Blick zu nehmen. Wer will z. B. KI über die Verteilung von Ressourcen im Gesundheitswesen entscheiden lassen? 

In welcher Verantwortung sehen Sie Politik, Forschungseinrichtungen und Wirtschaft?

Die Politik steht in der Verantwortung, Strukturvorgaben zu machen, Leitlinien zu entwerfen und Gesetze zu erlassen, damit die Entwicklung von KI im Einklang mit gesellschaftlichen Gemeinwohlinteressen geschieht. Der Gesetzgeber hat dafür zu sorgen, dass KI-Systeme und -Anwendungen nicht demokratische Grundsätze und Prozesse beschädigen. Dies geschieht etwa bei Wahlbeeinflussungen über Microtargeting – individualisierte Botschaften, die auf die Interessen und Vorlieben einer spezifischen Zielgruppe anhand von Erkenntnissen aus den Nutzerdaten angepasst werden. Es geschieht auch dort, wo KI-Anwendungen vorhandene Diskriminierungsmuster reproduzieren. Ein Beispiel ist das „Arbeitschancenmodell“, das vom Arbeitsmarktservice in Österreich eingesetzt wird und Arbeitssuchende anhand verschiedener Kriterien (z.B. Geschlecht, Alter, Staatsbürgerschaft oder Ausbildung) in drei Gruppen einteilt. Den vermeintlich aussichtsreichsten und den vermeintlich aussichtslosesten Gruppen werden grundsätzlich weniger Ressourcen zur Verfügung gestellt. Punkteabzug gibt es für das weibliche Geschlecht, für Betreuungspflichten (nur bei Frauen), für das Alter, für gesundheitliche Beeinträchtigungen und für Menschen, die nicht aus EU-Ländern stammen.

Forschungseinrichtungen stehen in der Verantwortung, KI als interdisziplinäres Feld zu etablieren. Wenn KI-Anwendungen zunehmend in gesellschaftlichen Feldern eingesetzt werden, ist die Expertise aus sozial- und geisteswissenschaftlichen Disziplinen unabdingbar, sowohl im Studium als auch in der weiter gehenden Forschung. 

Die großen Tech-Unternehmen haben sich in den letzten Jahren verstärkt ethische Leitlinien gegeben. Solche ethischen Selbstverpflichtungen sind wichtig, weil sie eine Sprache zur Verfügung stellen, in der über die sozialen, politischen und moralischen Fragen der Technikentwicklung gesprochen werden kann. Ethische Selbstverpflichtungen reichen aber nicht aus. Sie sind häufig so allgemein, dass sie kaum kontinuierlich kultiviert und eingeübt werden können und dass ihre Einhaltung schwerlich überprüfbar ist. Wenn beides nicht gegeben ist, dann ist der Vertrauensvorschuss, den solche „weichen“ Regulierungen einfordern, ein blinder Vertrauensvorschuss und kein Ersatz für klare rechtliche Regulierungen.

Welche konkreten Anstrengungen unternimmt die Universität Tübingen, um ethische Aspekte bei der Erforschung Künstlicher Intelligenz zu berücksichtigen?

Ethische Forschung zu KI ist Teil des Tübinger Exzellenzclusters "Maschinelles Lernen in der Wissenschaft". Am Tübinger Internationalen Zentrum für Ethik in den Wissenschaften forscht eine Gruppe von (Post)Docs an unterschiedlichsten Themen von Ethik und KI und leistet damit einen wichtigen Beitrag zu den notwendigen Debatten. Da diese Forschung aber ausschließlich durch Drittmittel und in befristeten Projekten finanziert ist, kann sie nie auf Augenhöhe mit der technologischen Forschung sein. Gerade diese Augenhöhe aber wäre dringend nötig, weil jeder Einsatz von KI eine kontextspezifische Verknüpfung von technischer Forschung, gesellschaftlichen Normen und Werten und strategischen Interessen ist. 

Wie ist Ihre Zukunftsvision von einem verantwortungsbewussten Einsatz Künstlicher Intelligenz?

Wichtige Aspekte für einen verantwortungsbewussten Einsatz sind beispielsweise:

  • eine größere Transparenz und Selbsterklärungsleitungen der KI Systeme
  • Kennzeichnungen, wenn Menschen mit KI-Systemen interagieren – etwa bei Sprachassistenzsystemen am Telefon
  • ein breiterer Fokus auf Gerechtigkeitsfragen 
  • die Anstrengung, Diskriminierung so weit wie möglich zu verhindern.

In welchen Feldern und wie weit KI-Systeme eingesetzt werden, muss eine politisch-gesellschaftliche Frage bleiben. Denn nicht alles, was Menschen können, sollen sie auch. Grundsätzlich geht es darum, den Nutzen breit zu teilen und die Risiken im Vorfeld zu identifizieren und zu vermindern.

Dazu kommen zwei grundlegende Bereiche:

  • Wir brauchen ein Bewusstsein dafür, dass KI-Systeme in vielen Bereichen großartige Leistungen erbringen. Aber nicht alles kann sinnvollerweise quantifiziert werden. Eine weitgehende Quantifizierung des Sozialen und des individuell Menschlichen muss auf seine Effekte hin untersucht werden, und nicht-quantifizierbare Eigenschaften, Emotionen, Überzeugungen, Wünsche und Ziele dürfen nicht aus dem Blick geraten. 
  • Wir brauchen ein Bewusstsein dafür, dass es Strukturen und Ressourcen braucht, um KI-Systeme zu entwickeln, zu produzieren, aufrechtzuerhalten und zu entsorgen. Dies beinhaltet den Rohstoff- und Energieverbrauch, die unsichtbare Arbeit derer, die Server reinigen, die Click-Arbeit machen, um Trainingsdatensätze zur Verfügung zu stellen, die "Cleaners", die die sozialen Medien von gewaltsamen Bildern "reinigen" bis hin zu dem elektronischen Müll, der in Länder des Südens transportiert wird. All diese Ressourcen und die "unsichtbare" Arbeit müssen in einem verantwortungsbewussten Umgang mit KI sichtbar gemacht und in die Fragestellungen zu KI mit einbezogen werden.