International Center for Ethics in the Sciences and Humanities (IZEW)

From principles to practice: Wie wir KI-Ethik messbar machen können

Das Ethikzentrum der Universität Tübingen hat als Teil der AI Ethics Impact Group eine Studie zur ethischen Gestaltung von Anwendungen der Künstlichen Intelligenz (KI) veröffentlicht. Kern des Papiers ist die Vorstellung eines Labels zur Kennzeichnung der ethischen Bewertung von KI auf Grundlage eines differenzierten Models.

Mit dem zunehmenden Einsatz algorithmischer Systeme in allen Lebensbereichen hat auch die Diskussion über die gesellschaftlichen Auswirkungen von KI-Technologie und die Entwicklung eines „Europäische Wegs zur Künstlichen Intelligenz“ an Fahrt aufgenommen. "Menschengerechte“ und „vertrauenswürdige KI“ sind die Schlagworte, mit denen politische Akteur*innen in Deutschland und auf europäischer Ebene diesen Weg beschreiben. Eine Vielzahl an ethischen Richtlinien für die Gestaltung von KI wurden veröffentlicht, um dies zu ermöglichen.1 Dabei scheint es allgemeine Einigkeit darüber zu geben, dass KI-Systeme bestimmten Prinzipien, wie Gerechtigkeit, Transparenz und Zuverlässigkeit unterliegen müssen.

Allgemeine Prinzipien müssen messbar gemacht werden

Die Frage, wie die in den Richtlinien enthaltenen Prinzipien konkret umgesetzt werden sollen, bleibt bisher jedoch unbeantwortet. Es bestehen viele unterschiedliche Verständnisse für Begriffe wie „Transparenz“ und „Gerechtigkeit“. Dies führt dazu, dass KI-entwickelnden Unternehmen wie auch Anwendern (z. B. der öffentlichen Hand) die nötige Orientierung fehlt und eine wirksame Kontrolle der Systeme nicht möglich ist. Die fehlende Konkretisierung ist somit eines der großen Hindernisse für die Entwicklung und den Einsatz gemeinwohlorientierter Künstlicher Intelligenz.

Unter der Leitung der gemeinnützigen Normierungsorganisation VDE (Verband der Elektrotechnik Elektronik und Informationstechnik e.V.) in Kooperation mit der Bertelsmann Stiftung arbeiteten PD Dr. Jessica Heesen, Prof. Dr. Christoph Hubig, Dr. Thilo Hagendorff und Dr. Wulf Loh vom Tübinger Ethikzentrum seit Oktober 2019 in der interdisziplinären „AI Ethics Impact Group“. Mit dem Arbeitspapier „AI Ethics: From Principles to Practice - An interdisciplinary framework to operationalise AI ethics“ liegt nun eine Studie vor, die verdeutlicht, wie KI-Ethikprinzipien operationalisiert und in die Praxis überführt werden können. In der AI Ethics Impact Group kamen Expertinnen und Experten aus den Bereichen Informatik, Philosophie, Ingenieurs- und Sozialwissenschaften zusammen. Beteiligt waren neben dem Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen unter anderem Wissenschaftlerinnen und Wissenschaftler des Algorithmic Accountability Labs der TU Kaiserslautern, des Höchstleistungsrechenzentrum der Universität Stuttgart, des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, des Instituts für Philosophie der TU Darmstadt, des Thinktanks iRights.Lab.

Link zur Studie und Informationen zur AI Ethics Impact Group (engl.): https://www.ai-ethics-impact.org/de

Link zur Pressemitteilung des VDE (dt.): https://www.vde.com/de/presse/pressemitteilungen/ki-ethik-messbar-machen

Twitter: #Principles2Practice und #AIEIG

Kontakt: jessica.heesenspam prevention@uni-tuebingen.de; thilo.hagendorffspam prevention@uni-tuebingen.de; wulf.lohspam prevention@uni-tuebingen.de

_________________________________________

1 Europäische Kommission (2020): Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen, in: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_de.pdf; Floridi, Luciano et al. (2018): AI4People – An Ethical Framework for a Good AI Society. Opportunities, Risks, Principles, and Recommendations, in: Minds and Machines, 2018, Vol. 28., No. 4, S. 689 – 707; The European Commission´s High Level Expert Group on Artificial Intelligence (AI HLEG) (04/2019): Ethics Guidelines for Trustworthy AI., in: https://ec.europa.eu/futurium/en/ai-alliance-consultation.