| Aktuelles | Interview | „Die Würde des Menschen im Digitalen wahren“

„Die Würde des Menschen im Digitalen wahren“

Nutzer sensibilisieren, damit sie nicht alles mit sich machen lassen: Ein Interview mit Professor Dirk Heckmann über die Vermessung des Menschen durch digitale Technologien und die Herausforderungen der Datenethik.

bidt-Direktoriumsmitglied Professor Dirk Heckmann war Mitglied in der Datenethikkommission der Bundesregierung, die im Herbst ihr Gutachten vorgelegt hat. Im Interview spricht er über das Geschäft mit den Daten von Nutzerinnen und Nutzern digitaler Technologien und erklärt, warum sich die Kommissionsmitglieder am 31. Januar am bidt treffen, obwohl ihre Arbeit offiziell beendet ist.

Sie waren Mitglied in der Datenethikkommission der Bundesregierung. Im Gutachten heißt es unter anderem, die Würde des Menschen verbiete die digitale Totalüberwachung. Was ist damit gemeint?

Dirk Heckmann: Das spielt darauf an, dass es inzwischen einen Industriezweig gibt, der seine Geschäftsmodelle regelrecht auf die Vermessung des Menschen ausrichtet und sich dabei besonders die Selbstvermessung zunutze macht, wie sie durch verschiedene Applikationen wie Gesundheits-Apps und Smartwatches geschieht.

Unter ethischen Gesichtspunkten ist es eine Herausforderung, die Datennutzung so einzugrenzen, dass es nicht zu Missbrauch kommt und Einzelne keine negativen Folgen zu befürchten haben. Das wäre zum Beispiel der Fall, wenn Krankenversicherungen auf die Idee kommen sollten, Telematik-Tarife einzuführen, die sich nach dem Verhalten des Versicherten richten. Dies würde das Solidaritätsprinzip infrage stellen. Ansätze dazu gibt es bereits, etwa bei Kfz-Versicherungen. Die Datenethikkommission ist einem humanistischen Ansatz gefolgt und hat darauf geachtet, dass die Autonomie und Würde des Menschen im Digitalen gewahrt bleibt.

Technologien haben einen gewissen Trend zur Perfektion. In dem Moment, in dem sie in die Autonomie eines Menschen eingreifen, kann das sehr problematisch sein, weil das Fehlerbehaftete und Schutzbedürftige des Menschen dadurch ein Stück weit verloren geht. Es ist wichtig, darauf hinzuweisen, dass es zur Würde und Freiheit eines Menschen gehört, nicht perfekt zu sein.

Was war Ihr Auftrag als Datenethikkommission?

Heckmann: Die Bundesregierung hat uns einen umfassenden Fragenkatalog  an die Hand gegeben. Dieser umfasste Bereiche wie „Algorithmenbasierte Prognose- und Entscheidungsprozesse“ und „Künstliche Intelligenz“. Kurz gefasst wurden wir beauftragt, der Frage nachzugehen, wie man in einer Informationsgesellschaft, die mit datengetriebenen Geschäftsmodellen konfrontiert ist und auch mit einer technikbasierten Verwaltung, mit diesen Daten umgehen darf: Gibt es ethische und rechtliche Grenzen, und was wäre die Empfehlung im Hinblick auf eine mögliche Regulierung?

Eine besondere Herausforderung ergibt sich hier auch durch den zunehmenden Einsatz von selbstlernenden Algorithmen (maschinelles Lernen), bei denen man nicht unbedingt weiß, wie eine Entscheidung am Ende zustande gekommen ist (sogenannte black box). Hier muss die Verantwortung klar zwischen Entwicklern, Betreibern und Nutzern abgegrenzt werden. Systeme mit sogenannter künstlicher Intelligenz sind komplex.

Aber auch einfachere Prozesse der Datenverarbeitung sind zu betrachten: In Deutschland wird inzwischen bereits seit etwa 25 Jahren das Internet aktiv genutzt, anfangs noch von sehr wenigen Menschen, inzwischen von fast jedem. Jede Nutzung dieser Technologien geht einher mit der Preisgabe und Verwendung von Daten. Das ist im Onlineshop die Angabe von Anschrift und Bezahldaten, aber auch die elektronische Patientenakte im Gesundheitswesen basiert auf Daten. Da stellt sich natürlich die Frage: Ist der Datenschutz, den es momentan durch die Datenschutzgrundverordnung gibt, ausreichend, um dem Schutz der Privatsphäre Rechnung zu tragen?

Umgekehrt soll Datenschutz ja kein einseitiges Verhinderungsinstrument sein, damit möglichst wenig Daten verwendet werden. Schließlich basieren auch viele gute Zwecke auf der Verwendung von Daten, zum Beispiel im Gesundheitsschutz, beim autonomen Fahren oder bei der Optimierung von Industrieprozessen. Das lässt sich etwa erreichen durch Datenschutz durch Technikgestaltung, wie sie unter dem Label „Privacy by Design“ bekannt ist.

Was ist damit gemeint?

Heckmann: Wenn man den Datenschutz direkt in die Technologien und Systeme einbaut, wird die Privatsphäre der Nutzerinnen und Nutzer besser geschützt. Alle kennen soziale Netzwerke, in denen es Einstellungen zur Privatsphäre gibt, die festlegen, wer die eigenen Inhalte sehen darf. Mit einer datenschutzfreundlichen Voreinstellung, „Privacy by Default“, ist es eben nicht für jeden sichtbar, was dort eingegeben wird, sondern es obliegt dem Einzelnen, das anders einzustellen.

Bei Facebook war es viele Jahre genau anders herum. Die Voreinstellung war, alles öffentlich sichtbar zu machen, und das war ja auch die Strategie: ein offenes Netzwerk, damit viele neugierig werden und mitmachen. Erst nach vielen Protesten hat Facebook das geändert. An diesem Beispiel sieht man: Man kann durch technische Konfiguration dem Datenschutz Rechnung tragen, aber gleichzeitig dem Einzelnen die Möglichkeit geben, freiwillig und bewusst über seine Daten zu entscheiden.

Für die Nutzerinnen und Nutzer wirkt das Thema Datenschutz mitunter reichlich kompliziert. Warum kann man sich nicht einfach darauf verlassen, dass das wirklich Notwendige schon geregelt wird und man nicht jedes Mal, wenn man das Smartphone einschaltet, darüber nachdenken muss, was nun wohl mit den Daten passiert?

Heckmann: Das wäre schön. Das Spannende ist, dass es in anderen Bereichen tatsächlich der Fall ist. Im Verbraucherschutz, im E-Commerce, zum Beispiel: Wenn Sie heute etwas bei einem seriösen Unternehmen online kaufen, brauchen Sie praktisch gar nicht die Allgemeinen Geschäftsbedingungen zu lesen. Denn das Verbraucherschutzrecht ist so geregelt, dass alles, was unzulässig wäre, ungültig ist. Dafür gibt es eine Gerichtsbarkeit, man könnte sein Recht einklagen, sein Geld zurückverlangen oder die Ware zurückschicken. Das wird ja auch genutzt und nur in Einzelfällen tauchen Probleme auf.

Beim Datenschutz ist es anders, gerade was das Bezahlen mit Daten durch vermeintlich kostenlose Apps betrifft oder die Nutzungsmöglichkeiten etwa im Rahmen der sozialen Netzwerke. Das Problem liegt darin, dass zwar die Datenschutzgrundverordnung gilt, aber von bestimmten Anbietern nur teilweise eingehalten wird. Es ist also kein Regulierungsproblem, sondern ein Vollzugsproblem.

Bislang waren reine Sanktionen zu gering und ein Verbot politisch nicht durchsetzbar, da hätte man Millionen von Nutzerinnen und Nutzern gegen sich. Diese mächtigen Anbieter wie Google und Facebook wissen natürlich, dass die Nutzerinnen und Nutzer deren Leistungen stark nachfragen und eine zu starke Regulierung auch auf Protest stoßen würde. Mit der Datenschutzgrundverordnung gibt es jetzt jedoch Sanktionsmöglichkeiten mit Bußgeldern bis zu vier Prozent des weltweiten Jahresumsatzes im Konzern. Das kann ein dreistelliger Millionenbetrag sein, der auch Großunternehmen schmerzt. Bislang hatten sie wenig zu befürchten.

Viele Menschen geben ihre Daten freiwillig preis, wenn sie dafür etwas umsonst bekommen.

Heckmann: Diese Mentalität: „Ich habe nichts zu verbergen und zahle lieber mit meinen Daten als mit Geld“, kommt noch dazu. Hier hilft nur, ein Bewusstsein für den reflektierten Umgang mit persönlichen Daten zu schaffen und eine kritische Sicht auf das eine oder andere Geschäftsmodell zu wecken. Das scheint mir der richtige Hebel zu sein und nicht eine einseitige Orientierung auf einen noch stärkeren Vollzug. Die Hoffnung ist, dass solchermaßen sensibilisierte Nutzerinnen und Nutzer auf Dauer nicht alles mit sich machen lassen. Deswegen war für die Datenethikkommission das Thema digitale Bildung und Medienkompetenz ganz zentral.

Wie sind Ihre Erwartungen an die Politik nach Abgabe des Gutachtens?

Heckmann: Unsere Erwartung ist, dass das Gutachten diskutiert und reflektiert wird. Es sieht auch überhaupt nicht danach aus, als würde es in der Schublade verschwinden. Am 31. Januar 2020 sind es 100 Tage seit der Übergabe des Gutachtens an die Bundesregierung. Das ist natürlich noch zu früh für konkrete Regulierungsvorschläge in den zuständigen Ministerien. Immerhin hat das Bundeskanzleramt am 23. Januar 2020 eine Expertenanhörung organisiert als „Kick-off-Veranstaltung“ für die Erarbeitung der Datenstrategie. Sicher werden dort auch Überlegungen der Datenethikkommission einfließen.

Obwohl unsere Arbeit offiziell beendet ist, ist es unser Anliegen, auf jeden Fall im interdisziplinären Gespräch zu bleiben und uns Wege zu überlegen, wie wir uns möglicherweise als Expertengruppe weiterhin einbringen können. Dafür treffen wir uns am 31. Januar und 1. Februar 2020 am bidt. Die Idee ist, für die Gedanken einer Datenethik weiterhin sozusagen als Pate zu fungieren.

Das bidt ist für uns der ideale Treffpunkt, da sich auch hier am Institut ein Expertenkreis unterschiedlichster Disziplinen mit hochaktuellen Fragen beschäftigt und gerade Datenschutz und -nutzung sowie KI zu den Schwerpunktthemen gehören. Die interdisziplinäre Besetzung ist elementar. Man kann die Digitalisierung überhaupt nicht anders begreifen und anpacken als durch die Verbindung unterschiedlicher fachlicher Expertisen. Das Anliegen der Kolleginnen und Kollegen, die Mitglied der Datenethikkommission waren, und am bidt ist dasselbe: die Herausforderungen, die die Digitalisierung mit sich bringt, zu begreifen und dazu beizutragen, sie zu gestalten.