Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

„Technikdesign und Diversität: Künstliche Intelligenz vs. Demokratie?“

Laura Schelenz und Jessica Heesen

KI ist omnipräsent. Doch wie kompatibel ist sie eigentlich mit unserer Partizipation in digitalen Öffentlichkeiten? Der Beitrag diskutiert, wie Diversität in und durch KI-gestützte Technik reduziert wird. Dies hat Implikationen für unsere Teilhabe an politischen Diskursen. Wir forschen daher kritisch zu KI und diversitätssensiblem Technikdesign.

Künstliche Intelligenz (KI) prägt unserem Alltag. Viele technische Anwendungen für den täglichen Gebrauch wie etwa die Internet-Suchmaschine basieren auf maschinell lernenden Algorithmen, die zum Bereich der KI zählen. Wir sind also täglich mit KI konfrontiert – manchmal, ohne dass es uns bewusst ist. Doch KI zieht zunehmend skeptische Stimmen laut, die vor den negativen Auswirkungen des Designs und Einsatzes von KI warnen. Das Ethikzentrum setzt sich in verschiedenen Projekten kritisch mit Künstlicher Intelligenz auseinander. Dazu gehören Themen wie die Vertrauenswürdigkeit und Erklärbarkeit von KI), diskriminierungssensible KI oder ihre Verwendung im Gesundheits-, Nachhaltigkeits- und Sicherheitsbereich.

Ein weiteres Thema, welches uns beschäftigt, ist die Auswirkung von KI auf die demokratische Partizipation in digitalen und physischen Öffentlichkeiten. In dem Zusammenhang diskutierten Jessica Heesen und Laura Schelenz unter der Leitfrage „Künstliche Intelligenz für eine demokratische Öffentlichkeit?“ am 21.01.2021 die Risiken Künstlicher Intelligenz in der Ringvorlesung „Dis/Empowerment in digitalen Öffentlichkeiten“ organisiert von Prof. Tanja Thomas.

Enthusiasmus für das Internet lässt sich insbesondere auf libertäre Denker*innen zurückführen, die wie John Perry Barlow argumentieren, dass das Internet bisher gekannte Grenzen der Interaktion überwinden kann. Jede*r könne sich im Cyberspace äußern, die eigene Identität ausleben und an öffentlichen Diskursen teilhaben. Dass diese technooptimistische Haltung längst überholt ist, zeigen unzählige wissenschaftliche Analysen und Erfahrungsberichte. Gegenteilig zu Barlows These wurde argumentiert, dass das Internet sowie KI-gestützte Plattformen wie Suchmaschinen und soziale Medien eine Einschränkung von Diversität mit sich bringt.

Jessie Daniels beispielsweise zeigt in ihrem Artikel „My Brain Database Doesn’t See Color“ (2015), dass eine „farbenblinde“ Haltung rassistische Dynamiken im Cyberspace verschleiere. Das Internet ist in einem weiß und männlich dominierten Kontext im Westen der USA großgeworden und stellt die Interessen dieser Nutzergruppe in den Vordergrund. Der Kontext von Technikentwicklung prägt die Technik. Kate Crawford sagt dazu: „Like all technologies before it, artificial intelligence will reflect the values of its creators“ (New York Times, 25.06.2016). Fragen von Diversität beginnen also beim Technikdesign und Entwicklungsteam.

Darüber hinaus verstärkt Künstliche Intelligenz die Reduktion von Diversität durch bestimmte Dynamiken. Zum einen sind Algorithmen häufig so programmiert, dass sie besonders populäre Beiträge in sozialen Netzwerken aufnehmen und weiterverbreiten. Wenn es sich bei einem Beitrag dann auch noch um exkludierende Weltsichten handelt, reduziert dies Diversität noch einmal. Gewaltandrohungen oder Hassrede im Internet führen dann zur Unterdrückung („silencing“) von ohnehin marginalisierten Gruppen. Zum anderen basieren KI-gestützte Algorithmen häufig auf Datensätzen aus der Vergangenheit, die bestehende gesellschaftliche Ungleichheiten wie z. B. am Arbeitsmarkt abbilden. Die Algorithmen lernen diese diskriminierenden Muster und wenden sie an und potenzieren sie sogar ggfs. noch.

Was bedeutet die Einschränkung von Diversität durch KI-gestützte Technik für die Partizipation in einer demokratischen (digitalen) Öffentlichkeit? Die pluralen Öffentlichkeiten des Internets bieten eine Vielzahl von Beteiligungsmöglichkeiten für die unterschiedlichsten gesellschaftlichen Gruppen. Sie sind aber nur dann von Bedeutung, wenn sie zum Bestandteil der großen Öffentlichkeiten werden und damit ihren Weg in die Massenmedien finden oder Wirksamkeit in ihren spezifischen Fachöffentlichkeiten entfalten können. Marginalisierte Gruppen haben es jedoch schwerer, am digitalen Deliberationsprozess teilzuhaben Das bedeutet, dass uns die Konfrontation mit Meinungsvielfalt fehlt, wenn das Gatekeeping durch Algorithmen eher machtvolle Akteur*innen der öffentlichen Kommunikation in den Vordergrund rückt.

Was braucht es nun, um die genannten Bedenken einzufangen? Zum einen sollten wir Suchmaschinen wie Google als Autorität bei der Wissensgenerierung hinterfragen. Hierbei geht es nicht zwangsläufig um Angst vor Fake News, sondern eher um die Frage, ob Google die diversen Facetten eines Themas abbildet. Darüber hinaus braucht es diversitätssensibles Technikdesign, welches Diversität als ethischen Anspruch in den Mittelpunkt des Entwicklungsprozesses stellt. Hieran forschen wir in den kommenden Jahren.