Uni-Tübingen

attempto online - Leute

02.10.2020

KI verantwortungsvoll entwickeln und anwenden: Plattform Lernende Systeme veröffentlicht Leitfaden

Tübinger Medienethikerin Jessica Heesen beteiligt

Künstliche Intelligenz (KI) kann den Alltag erleichtern, die Gesundheitsversorgung verbessern und bei der Lösung globaler Herausforderungen wie dem Klimawandel oder der Corona-Pandemie unterstützen. Inwieweit KI-basierte Systeme tatsächlich eingesetzt werden, hängt maßgeblich davon ab, ob die Menschen der Technologie vertrauen. Ethische Werte und Prinzipien spielen – zumindest in Europa – für die Entwicklung von KI daher eine zentrale Rolle.
 
Die Plattform Lernende Systeme hat einen Leitfaden verfasst, wie sichere, nachvollziehbare und diskriminierungsfreie KI-Anwendungen entstehen können. Zum Autorenteam gehört auch Dr. Jessica Heesen vom Zentrum für Ethik in den Wissenschaften – sie leitet dort den Forschungsschwerpunkt „Medienethik und Informationstechnik“.  Die Autorinnen und Autoren des Leitfadens haben sich mit der Problematik auseinander gesetzt und benennen konkrete Anforderungen und Praxisbeispiele für eine verantwortungsvolle KI-Entwicklung und -Anwendung in Unternehmen.

Wie nahezu alle technischen Innovationen birgt auch Künstliche Intelligenz Chancen wie Risiken – und wirft somit ethische und moralische Fragen auf. Ein KI-System kann beispielsweise beim Vorsortieren von Bewerbungen unterstützen – aber unter Umständen auch Kandidatinnen diskriminieren, weil in der Vergangenheit überwiegend Männer eingestellt wurden und das System mit diesen Daten trainiert wurde.

Viele Unternehmen und Institutionen, die KI-Systeme entwickeln und anwenden, sind sich der Bedeutung eines verantwortungsvollen Umgangs mit KI bewusst. Sie stehen jedoch vor der Herausforderung, abstrakte ethische Werte und Prinzipen wie die Diskriminierungsfreiheit oder Transparenz der KI-Systeme in die Praxis umzusetzen. Der Leitfaden „Ethik-Briefings“ der Plattform Lernende Systeme greift den “Ethics by, in and for Design“-Ansatz auf, den die Bundesregierung in ihrer KI-Strategie verfolgt. 

„Unser Leitfaden dient Entwicklerinnen und Entwicklern sowie Anbietern von KI als Orientierung. Als Faustregel gilt: Je höher die Risiken durch den Einsatz eines KI-Systems sind, desto mehr Gewicht soll bereits im Entwicklungsprozess die Einhaltung ethischer Prinzipien haben“, erklärt Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen und Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. „So ist zum Beispiel bei einem KI-System in der öffentlichen Verwaltung, das über die Vergabe von Sozialleistungen entscheidet, ein sehr hohes Verantwortungsbewusstsein gefragt. Dabei muss allerdings klar sein, dass nicht immer alle Werte gleichzeitig realisiert werden können.“

Als übergeordnete Werte für eine verantwortungsvolle KI-Entwicklung nennen die Autorinnen und Autoren des Leitfadens Selbstbestimmung, Gerechtigkeit und den Schutz der Privatsphäre. „KI-Systeme sollten immer mit dem Ziel entwickelt und eingesetzt werden, zu ethisch legitimen Anwendungen beizutragen, idealerweise zur Förderung des Gemeinwohls“, so Mitautor Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag. „Beim Einsatz von KI muss Schaden für Einzelpersonen, Gemeinschaften und Umwelt vermieden werden. Die Systeme müssen rechtskonform und technisch robust sein. Sie dürfen zu keinem Zeitpunkt ein unannehmbares Sicherheitsrisiko darstellen.“

Um die Selbstbestimmung der Nutzer zu gewährleisten, sollten Technologieunternehmen erklärbare KI-Systeme konzipieren, die Ergebnisse und Entscheidungen für den Nutzer nachvollziehbar machen. Die Autorinnen und Autoren empfehlen außerdem ein zentrales KI-Register, das in Kooperation zwischen Wirtschaft und öffentlicher Hand betrieben wird. KI-Anbieter sollen dort ihre Anwendungen eintragen, so dass sich Verbraucherinnen und Verbraucher darüber informieren können, in welche Produkte oder Dienstleistungen KI integriert ist. Zudem warnen die Autorinnen und Autoren vor einseitigen Abhängigkeitsverhältnissen zwischen KI-Entwicklern, -Anbietern und -Nutzern. Deshalb sollten die Unternehmen bei der Entwicklung offene Schnittstellen in ihre Systeme integrieren und sie interoperabel konzipieren, um die Vielfalt des Marktangebots zu erhalten.

Ein KI-System ist nur so gut wie die zugrunde liegenden Daten. Wichtig daher: Hersteller sollen bei der Entwicklung von KI-Systemen auf die Qualität der Trainingsdaten achten, deren Herkunft offenlegen und möglichst anonymisierte oder pseudonymisierte Datensätze verwenden, um diskriminierungsfreie und sichere KI-Systeme zu gestalten. Der Politik empfehlen die Autorinnen und Autoren, Standards festzulegen, die es ermöglichen, KI-Systeme zu zertifizieren und auditieren, und Einspruchsmöglichkeiten für betroffene Personen vorzusehen. Gleichzeitig sehen die Autorinnen und Autoren auch die Menschen selbst in der Verantwortung, sich vor der Nutzung über ein KI-System zu informieren und sorgfältig mit ihren Daten umzugehen.

Die Autorinnen und Autoren des Whitepapers "Ethik-Briefing: Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen" sind Mitglieder der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.

Mitteilung der Plattform Lernende Systeme

Weitere Informationen:

Ethik-Briefing - Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen  

Drei Fragen an Jessica Heesen  

Kontakt:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
+49 89/52 03 09-54 /-51
+49 172/144 58-47/-39
pressespam prevention@plattform-lernende-systeme.de 

PD Dr. Jessica Heesen
Universität Tübingen
Internationales Zentrum für Ethik in den Wissenschaften, Forschungsschwerpunkt Medienethik und Informationstechnik (Leitung)
+49 7071 29-77516
jessica.heesenspam prevention@uni-tuebingen.de 

Zurück