ANALYSEN UND STUDIEN

Gesichtserkennung – Ein Diskussionsbeitrag zur Regulierung der Technologie

Publikation
Von Nikolaus Bauer, Dr. Jan Gogoll, Niina Zuber (alle bidt)

Gesichtserkennung wird in der Öffentlichkeit oftmals kontrovers diskutiert. Die neue bidt-Studie leistet aus der Perspektive der Rechtswissenschaften, der Informatik und der Ethik einen Beitrag zu dieser Diskussion. Die zentrale Frage lautet: Sind neue rechtliche Regelungen oder sogar ein Verbot notwendig?

Download Studie

Der Anwendungsmöglichkeiten der biometrischen Gesichtserkennung entwickeln sich stetig weiter. Sie reichen vom Entsperren des Smartphones und dem Einsatz bei der Passkontrolle (Authentifikation) über den Abgleich von Videoaufnahmen mit Datenbanken bei polizeilichen Ermittlungen (Identifikation) bis zur verbesserten Diagnose von Krankheiten (Klassifikation). Zugleich wird der Einsatz von Technologien zur Gesichtserkennung in der Öffentlichkeit und von politischen Entscheidungsträgern kontrovers diskutiert: Es werden Forderungen nach einer strengen Regulierung oder einem Verbot lauter.

Die neue bidt-Studie „Gesichtserkennung“ ist ein Diskussionsbeitrag mit Perspektiven aus Rechtswissenschaften, Informatik und Ethik zur Regulierung der Technologie. Die Forscherinnen und Forscher – Nikolaus Bauer, Dr. Jan Gogoll und Niina Zuber – geben einen Überblick auf unterschiedliche Anwendungsfälle, die von Authentifikation über Identifikation bis zu Klassifikation reichen. Sie setzten einen Impuls zur aktuellen Diskussion auf EU- und Länderebene und gehen der Frage nach, ob neue rechtliche Regelungen oder sogar ein Verbot erforderlich sind.

Die Autorinnen und Autoren sind sich dabei einig: Mit Ausnahme von Gesichtserkennung zum Zwecke der Authentifikation sehen sie Handlungsbedarf für den Einsatz der Systeme in den Bereichen Klassifikation und Identifikation. Sie sprechen sich in Bezug auf die Klassifizierung für eine gemeinsame Stellungnahme der europäischen Datenschutzaufsichtsbehörden aus, um Betroffene wirksam zu schützen. Für den Einsatz von biometrischer Gesichtserkennung im öffentlichen Raum in Deutschland befürworten sie ein Moratorium.

Inhalt

Das Wichtigste in Kürze

a) Die technische Zuverlässigkeit von Gesichtserkennungssystemen nimmt zu. Doch selbst wenn die Technik zu 100 Prozent technisch zuverlässig wäre, würde das nicht bedeuten, dass sie auch rechtlich zulässig ist. Neben der technischen Zuverlässigkeit der Systeme müssen weitere verfassungsrechtliche und datenschutzrechtliche Anforderungen eingehalten werden.

b) Der Einsatz von Gesichtserkennungssystemen zum Zwecke der Authentifikation kann datenschutzgerecht ausgestaltet werden. Regulierungsbedarf besteht nicht.

c) Klassifizierungen mittels Gesichtserkennungssystemen sind auf EU-Ebene verboten, es sei denn, die Betroffenen willigen ein (datenschutzrechtliches Verbot mit Erlaubnisvorbehalt). Der Einsatz der Systeme ist nur in engen Anwendungsfällen auf Basis einer freiwilligen Einwilligung zulässig, insbesondere in den Bereichen Gesundheit, Wissenschaft und Sicherheit des Straßenverkehrs. Die Europäischen Datenschutzaufsichtsbehörden sollten in einer gemeinsamen Stellungnahme die engen Anwendungsfälle festlegen.

Die Einwilligung muss freiwillig erfolgen, d. h. Betroffene dürfen sich nicht gedrängt fühlen oder negative Auswirkungen erdulden müssen, wenn sie nicht einwilligen. Mit ihrer freiwilligen Einwilligung können betroffene Personen Risiken von Diskriminierung durch Gesichtserkennungssysteme im Vorfeld begegnen. Auch das Verbot automatisierter Einzelentscheidungen mindert Risiken von Diskriminierungen durch Gesichtserkennungssysteme, da die Betroffenen die Möglichkeit haben müssen, dass doch wieder ein Mensch die Entscheidung trifft.

Die Europäische Kommission sollte in ihren Regulierungsvorschlägen zu Künstlicher Intelligenz Klassifizierungen durch biometrische Systeme im Gesundheitsbereich als mit hohem Risiko behaftet ansehen und strikten obligatorischen Auflagen unterwerfen, da durch Fehldiagnosen erhebliche Nachteile für die Betroffenen drohen können.

d) Der Einsatz von Gesichtserkennungssystemen zum Zwecke der Identifikation von Unionsbürgerinnen und Unionsbürgern durch private Unternehmen wie Clearview und PimEyes ist verboten, da die Betroffenen regelmäßig keine Einwilligung in die Verarbeitung ihrer biometrischen Daten gegeben haben. Es scheint jedoch ein Rechtsdurchsetzungsproblem zu geben. Um biometrische Daten zu schützen, sollte der Gesetzgeber mit den Datenschutzaufsichtsbehörden gemeinsam Lösungen erarbeiten. Gegebenenfalls bedarf es völkerrechtlicher Verträge der EU mit Drittstaaten.

e) Der Einsatz von Gesichtserkennungssystemen zum Zwecke der Identifikation im öffentlichen Raum ist derzeit mangels Rechtsgrundlage verboten (datenschutzrechtliches Verbot mit Erlaubnisvorbehalt). Der Staat hat eine Schutzpflicht für seine Bevölkerung, muss aber zugleich auch die Grundrechte seiner Bürgerinnen und Bürger achten.

Die Europäische Kommission will darum einen engen Rahmen vorgeben, in dem biometrische Gesichtserkennung im öffentlichen Raum ausnahmsweise zulässig sein soll. Sie will sie zudem als hohes Risiko einstufen und strikte obligatorische Auflagen und Verfahren implementieren.
Innerhalb dieses engen Rahmens könnte der nationale Gesetzgeber eine Rechtsgrundlage für die biometrische Gesichtserkennung im öffentlichen Raum schaffen.

Eine Rechtsgrundlage für die biometrische Gesichtserkennung im öffentlichen Raum muss den Grundsatz der Verhältnismäßigkeit beachten. Dabei ist eine doppelte Verhältnismäßigkeitsprüfung durchzuführen, die sowohl die Einzelmaßnahme als auch die Gesamtheit aller staatlichen Überwachungsinstrumente („Überwachungs-Gesamtrechnung“) berücksichtigt.

Im Hinblick auf die Überwachungs-Gesamtrechnung sollte wissenschaftliche Expertise eingeholt werden; das Gebiet wird derzeit beforscht.
Die biometrische Gesichtserkennung im öffentlichen Raum bedeutet einen sehr schweren Eingriff in die Grundrechte der Bürgerinnen und Bürger. Sie wäre wohl nur unter noch engeren verfassungsrechtlichen Voraussetzungen zulässig als der bereits enge Rahmen, den die Europäische Kommission in ihren Regulierungsvorschlägen zu Künstlicher Intelligenz vorgeben will.

Zu den sehr engen verfassungsrechtlichen Voraussetzungen gehören insbesondere:

  • Es bedarf einer konkreten Gefahr für ein hochrangiges Rechtsgut, wie den Leib, das Leben oder die Freiheit von Bürgerinnen und Bürgern bzw. den Bestand des Bundes oder eines Landes, oder die Maßnahme muss zur Aufklärung besonders schwerer Straftaten erforderlich sein.
  • Die Maßnahme muss zeitlich und örtlich beschränkt angewandt werden. Sie darf nur an sehr eng bestimmten Orten, wie etwa Verkehrsknotenpunkten (z. B. Bahnhöfe, Flughäfen) durchgeführt werden, an denen mit dem Auffinden der gesuchten Personen zu rechnen ist, und darf nur so lange andauern, wie die Gefahrenlage besteht oder es für die Aufklärung der Straftaten erforderlich ist.
  • Sie muss von sehr engen technischen und organisatorischen Schutzvorkehrungen flankiert sein. Es bedarf eines Richtervorbehaltes für die Anordnung der Maßnahme und der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit ist zu beteiligen. Die personenbezogenen Daten dürfen nur für die in der Rechtsgrundlage genannten Zwecke verwendet werden und müssen gelöscht werden, wenn der Zweck erreicht ist. Daneben ist ein hohes Maß an Datensicherheit erforderlich.
  • Der Anlass, der Zweck und die Grenzen der Maßnahme müssen in der Ermächtigungsgrundlage bereichsspezifisch, präzise und normenklar festgelegt werden.

f) Der Gesetzgeber sollte biometrische Gesichtserkennung im öffentlichen Raum nur erlauben, wenn diese gesellschaftlich akzeptiert ist. Die Frage der gesellschaftlichen Akzeptanz scheint noch nicht geklärt zu sein. Deshalb bedarf es einer breiten öffentlichen demokratischen Debatte. Bis zu deren Abschluss sollte der Gesetzgeber davon absehen, eine nationale Rechtsgrundlage für die biometrische Gesichtserkennung im öffentlichen Raum zu schaffen („Moratorium“).

g) Über derartig Wesentliches, wie den Einsatz von Gesichtserkennungstechnologie zur Strafverfolgung im Nachgang zu Massenereignissen, etwa dem G20-Gipfel, muss der Gesetzgeber entscheiden. Derzeitige Generalklauseln dürften der Rechtsprechung des Bundesverfassungsgerichts hinsichtlich Normenklarheit und Bestimmtheit nicht entsprechen, um den Einsatz der Systeme zu erlauben. Der Gesetzgeber könnte deshalb gefordert sein, eine Spezialrechtsgrundlage für den Einsatz der Technik bei Massenereignissen in der Strafprozessordnung zu schaffen, oder die Exekutive sollte auf deren Einsatz verzichten.

h) Gegen den Einsatz von Gesichtserkennungssystemen zum Abgleich von auf Video aufgenommenen Tatverdächtigen mit polizeilichen Datenbanken bestehen keine grundsätzlichen datenschutzrechtlichen Bedenken.

Ressourcen

Studie

Gesichtserkennung –
Ein Diskussionsbeitrag
zur Regulierung der Technologie

Download PDF
Forschungsprojekt

Zum Verhältnis von
Rechtspolitik und Ethik
in der Digitalisierung

Link zum Projekt
Forschungsprojekt

Ethik in der agilen Softwareentwicklung

Link zum Projekt

AnsprechpartnerInnen

Zur Studie
Nikolaus Bauer
Wissenschaftlicher Referent Forschung
Für Presseanfragen
Margret Hornsteiner
Abteilungsleiterin
Dialog

Weitere Beiträge

WORKING PAPER

Können Maschinen Verantwortung übernehmen? Das Working Paper zeigt, dass Verantwortung ein Maß an Vernunft, Freiheit und Autonomie voraussetzt, über das auch komplexe KI-Systeme auf absehbare Zeit nicht verfügen werden.

Neue Technologien wie Künstliche Intelligenz werden breit eingesetzt. Wer haftet, wenn KI irrt? Auf dem Foto legt ein Roboterarm einem Menschen einen Verband an.
VERANSTALTUNG

Künstliche Intelligenz wird vielfach eingesetzt. Doch wer haftet, wenn KI irrt? Ergebnisse der bidt Werkstatt digital zu „Risiko KI?“.

Alle Publikationen

NEWSLETTER

Neuigkeiten zur digitalen Transformation

Jetzt abonnieren