Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

Ein Assistent für den Datenschutz im Smart Home

Prototyp für ein datensensibles Smart Home

von Alexander Orlowski

24.10.2023 · Immer mehr deutsche Haushalte werden zu Smart Homes. Das geschieht zum Beispiel durch den Einzug smarter Assistenten wie Amazon Echo oder Google Home, welche die bekanntesten smarten Geräte für das Zuhause sind. Aber unter das Stichwort Smart Home fallen viele weitere Gegenstände und Applikationen, welche das Leben in den eigenen vier Wänden erleichtern sollen – sie versprechen unter anderem Nachhaltigkeit, Sicherheit oder Komfort. Auch Staubsaugerroboter werden immer beliebter, oder Türklingeln, die mit einer Kamera ausgestattet sind und sich so aus der Ferne beantworten lassen. Und wer seine Wohnung oder sein Haus renoviert, steht vor der Frage, ob die Heizung und Rollläden auch in einer intelligenten Variante eingebaut werden sollen. Zum Teil wird es sogar immer schwieriger, Geräte zu kaufen, welche nicht unter dem Label „smart“ firmieren. Wenn man zum Beispiel einen neuen Fernseher benötigt, gibt es fast nur noch Smart-TVs, und auch immer mehr Kühlschränke sind mit Internetanbindung und Sensoren ausgestattet. Das Spektrum smarter Geräte reicht somit von einzelnen smarten Lautsprechern bis hin zur kompletten Steuerung von Heizung, Licht und Rollläden im eigenen Zuhause.

Damit diese Geräte ihre smarten Funktionen und den damit versprochenen Mehrwert erbringen können, benötigen sie Daten. Dazu haben Sprachassistenten Mikrofone und smarte Staubsauger Kameras. Die Vielzahl an Sensoren und die Daten, die damit erhoben werden können, geht aber noch weit darüber hinaus. So gibt es unter anderem auch Geräte mit Sensoren, die die Luftfeuchtigkeit oder CO2-Werte messen können. Der Fernseher weiß, wann welches Programm geschaut wird oder welches YouTube-Video. Dementsprechend sind immer mehr Geräte im Haushalt vorhanden, die über ihre Umgebung und die Bewohner*innen, die sich in dieser bewegen, Daten sammeln – ob das die Nutzer*innen wollen oder nicht. Zumeist verbleiben diese Daten auch nicht nur lokal auf dem Speicher des Geräts, sondern sie werden auf Server übertragen, beispielsweise um sie mit anderen Messwerten abgleichen zu können. Dabei werden die Daten dann oft ebenfalls in den Datenbanken der Hersteller abgespeichert.

Durch die Fülle an Geräten und möglichen Informationen, die übertragen werden könnten, können die Nutzer*innen gar nicht überblicken, welche Daten überhaupt gesammelt werden, geschweige denn diesen Prozess der Verarbeitung zur Gänze nachvollziehen. Dadurch bleibt verborgen, worin die möglichen Auswirkungen dieser Datensammlung bestehen könnten. Beispielsweise können Videoaufzeichnungen aus Versehen geleakt werden, wie es bei Videos von Staubsaugerrobotern geschehen ist.[1] Aber auch Informationen, die von den Sensoren nicht direkt erfasst werden können, wie der Beruf oder Gesundheitszustand, könnten durch Ableitung rückgeschlossen werden. Ableiten bedeutet dabei, dass Daten mithilfe von Algorithmen mit Vergleichsfällen abgeglichen werden, um Muster zu erkennen. Denn viele Daten lassen Rückschlüsse zu auf Informationen wie Gewohnheiten, Ansichten oder Interessen, welche für die Nutzer*innen sehr persönlich sind und häufig nicht öffentlich werden sollen.[2] Aber auch andere sehr sensiblen Daten wie medizinische Informationen oder psychische Krankheiten können aus gewissen Mustern abgeleitet werden. So lässt sich beispielsweise aus dem Nutzungsverhalten von Facebook ableiten, ob Nutzer*innen an Depressionen leiden.[3] Welche Rückschlüsse können dann erst aus unseren alltäglichen Gewohnheiten im Zuhause abgeleitet werden? Denn schließlich passiert all das an einem Ort der nicht nur als besonders privat gilt, sondern eben auch speziellen Schutz genießt. Um Menschen vor Überwachung zu schützen, ist unter anderem im Grundgesetz die Unverletzlichkeit der eigenen Wohnung verankert. Denn für die Selbstverwirklichung und um die eigene Autonomie ausüben zu können, ist es wichtig, dass es Rückzugsorte gibt, frei von Überwachung sind. Wenn hier jedoch Mikrofone, Kameras und andere Sensoren private Daten abgreifen ohne, dass es für die Nutzenden eine Mitbestimmungsmöglichkeit gibt, wird die informationelle Selbstbestimmung – also das Recht, selbst zu entscheiden, welche Daten über mich wann geteilt werden – besonders beeinträchtigt. Denn Individuen rechnen normalerweise gerade nicht damit, an diesem privaten Ort überwacht zu werden.

Unter dem Stichwort Datenautonomie wird genau dieses Problem adressiert: Den Nutzer*innen soll es möglich sein, eine eigene, informierte Entscheidung zu treffen, welche Daten sie preisgeben und welche nicht. Dies ist der Kern der informationellen Selbstbestimmung. Doch um zu entscheiden, ob man Daten teilen will, muss man erst einmal das Wissen über die zumeist im Hintergrund ablaufenden Prozesse und die Auswirkungen haben, die vom Datenteilen ausgehen können. Und dann muss es auch noch eine Möglichkeit geben, auf Basis dieses Wissens Entscheidungen zu treffen. Es müssen also Möglichkeiten vorhanden sein, die Geräte nach den eigenen Interessen einzustellen. Derzeit sind beide Aspekte – also das Vorhandensein von Wissen für eine informierte Entscheidung und die Möglichkeit zu Handeln – häufig nicht gegeben.

An diesem Punkt setzen wir mit dem transparenten Datenautonomie Meta-Assistent (DAMA) an. Im gleichnamigen Projekt ist ein Prototyp entwickelt worden, der Nutzer*innen helfen soll, die Verdatung im Smart Home zu überblicken und zu kontrollieren. DAMA informiert Nutzer*innen darüber, welche Geräte in ihrer Umgebung aktiviert sind und mit welchen Sensoren diese Daten sammeln. Aber auch Besucher*innen werden über Bildschirme und Durchsagen darüber informiert – beispielsweise, wenn sie einen Raum betreten, in welchem ein Sprachassistent ist, dessen Mikrofon aktiviert sein könnte. So wird eine erste Grundlage geschaffen, um zu erreichen, dass die Nutzer*innen darüber informiert sind, dass Daten von ihnen erhoben werden könnten.

Für eine informationelle Selbstbestimmung reicht es jedoch nicht aus, nur Informationen zu haben, sondern es ist notwendig, dass Nutzer*innen auch Kontrolle ausüben können. Deswegen bietet DAMA die Möglichkeit, Sensoren und Geräte zu deaktivieren. Auf diese Weise lässt sich entscheiden, ob ich gerade ein bestimmtes Gerät nutzen will oder ob ich aufgrund der aktuellen Situation (z.B. während eines privaten Gesprächs) die Datensammlung verhindern möchte. So kann je nach Situation abgewogen werden, ob ich gerade ein Gerät benötige oder ob ich lieber mehr Privatsphäre möchte und deshalb eine mögliche Aufzeichnung von Daten verhindere.

Um trotzdem den großen Vorteil des Smart Homes nicht zu verlieren, dass Geräte sich scheinbar reibungslos in das Leben integrieren, setzt DAMA hier wie die smarten Geräte neben der manuellen Steuerung auf Automatisierung. Per DAMA lässt sich definieren, in welchen Momenten man welche Geräte automatisch aktiviert haben möchte und in welchen sie deaktiviert sein sollen. Die Erfassung der Situationen erfolgt dabei möglichst datensensitiv und kann auf Wunsch auch nur manuell erfolgen. Eine Möglichkeit ist unter anderem, DAMA mit dem Kalender zu koppeln. Wenn man beispielsweise im Homeoffice ist und eine Videokonferenz hat, kann man mit DAMA einen entsprechenden Modus auswählen, welcher alle Smart Home Geräte mit Mikrofon deaktiviert. Dadurch wird etwa vermieden, dass Firmengeheimnisse aus Versehen mitgeschnitten werden können. Aber auch, wenn eine fremde Person ins Haus kommt (beispielswiese ein*e Handwerker*in), können private Anzeigen automatisch deaktiviert werden. Beispielsweise kann eingestellt werden, dass ein Spiegel, der sonst den privaten Kalender anzeigt, während des Besuchs nur das Wetter anzeigt.

Das Projekt ist eine Kooperation zwischen dem Fraunhofer IAO in Stuttgart und dem IZEW. Es wird durch die Baden-Württemberg Stiftung gefördert. Mehr Informationen gibt es auch auf unserer DAMA-Webseite.

-----------------------------------------------------------

[1] https://www.heise.de/hintergrund/Roomba-Wie-private-Fotos-eines-Staubsauger-Roboters-auf-Facebook-landen-koennen-7457283.html (16.01.2023, überprüft 11.09.2023)

[2] Ghiglieri M, Hansen M, Nebel M, et al. (2016) Smart-TV und Privatheit: Bedrohungspotenziale und Handlungsmöglichkeiten.

[3] Mühlhoff R (2020) Prädiktive Privatheit: Warum wir alle „etwas zu verbergen haben". In: Ammon S, Beck B and Benzmüller C (eds) KI als Laboratorium? Ethik als Aufgabe! Berlin: Berlin-Brandenburgische Akademie der Wissenschaften, pp. 38–45.

-------------------------------------------------------------

Kurz-Link zum Teilen des Beitrags: https://uni-tuebingen.de/de/256151