Stimm-, Sprach- und Gesichtserkennung

(2022)

Authentication by facial recognition concept. Biometric admittance control device for security system. Asian man using face scanner to unlock glass door in office building.

Biometrische Daten sind besonders sensibel, weil sie Menschen eindeutig identifizieren. Damit Gesichts-, Stimm- und Sprachbiometrie nutzbringend eingesetzt werden kann, braucht es deshalb klare gesetzliche Rahmenbedingungen. Die Autorinnen und Autoren einer im Auftrag von TA-SWISS erarbeiteten interdisziplinären Studie formulieren eine Reihe von Empfehlungen, wie ein vertrauenswürdiger Einsatz dieser Technologien gelingen kann – ein paar besonders problematische Anwendungen gilt es zu verbieten.

Inhalt der Studie

Immer mehr elektronische Geräte gehorchen heute aufs Wort oder auf einen Blick. Digitale Assistenten spielen auf Befehl Musik ab, stellen den Wecker oder passen die Raumbeleuchtung an. Smartphone oder Laptop lassen sich freihändig entsperren, Türen ohne Schlüssel öffnen, und Zahlungen per Gesichtserkennung freigeben. Anstelle eines Passwortes vergleicht die Software einzigartige Körpermerkmale mit gespeicherten Messwerten und Abläufen. Möglich machen es biometrische Sensoren und Maschinelles Lernen. Dass Maschinen immer besser dabei werden, uns zu erkennen und zu verstehen, kann ungemein praktisch sein: Kundinnen und Kunden lassen sich nach wenigen Worten am Telefon eindeutig identifizieren, bei der Einreise am Flughafen gleicht der Computer das Gesicht in Windeseile mit dem Passfoto ab. In der Ukraine hilft die Gesichtserkennung dabei, Vermisste zu suchen oder Tote zu identifizieren. Aber Maschinen können aus Gesicht, Stimme und Sprache noch weit mehr herausfinden als die Identität einer Person. Sie ziehen beispielsweise auch Rückschlüsse auf ihre Emotionen oder ihren körperlichen und geistigen Zustand. In der Medizin, so die Hoffnung, könnten biometrische Erkennungsverfahren so dabei helfen, Leiden wie Parkinson, Alzheimer, Depressionen und Burn-outs frühzeitig zu erkennen oder seltene Krankheiten aufzuspüren.

Keine versteckte Überwachung

Allerdings funktionieren die Systeme zur Erkennung von Stimme, Sprache und Gesicht bislang noch nicht fehlerfrei. So erkennt die automatische Gesichtserkennung Frauen und Menschen mit dunklerer Hautfarbe weniger präzis als weisse Männer, was auf fehlerhafte, unvollständige oder voreingenommene Trainingsdaten zurückzuführen ist. Zwar ist die Steigerung der technischen Zuverlässigkeit absehbar, doch das ändert nichts daran, dass die von den betroffenen Personen oft unbemerkte Überwachung stark in die Privatsphäre eingreift. Der Einsatz der automatisierten Echtzeit-Gesichtserkennung gefährdet auch weitere Grundrechte wie die Versammlungsfreiheit oder das Recht auf freie Meinungsäusserung, die für eine funktionierende Demokratie essentiell sind. Denn wer befürchten muss, ständig überwacht zu werden, neigt dazu, die eigenen Äusserungen zu zensieren. Dieser Druck zu linientreuem Verhalten ist mit der schweizerischen Bundesverfassung nicht vereinbar. Die Studie kommt denn auch zum Schluss, dass diese Art der automatischen Überwachung im öffentlichen Raum durch die Polizei oder andere Behörden nicht zulässig ist. Verboten werden soll der Einsatz von biometrischen Erkennungssystemen zudem für Aufmerksamkeitsanalysen an Schulen oder vollautomatische Entscheidungssysteme im Gesundheits-, Banken- und Versicherungswesen, in der Strafverfolgung oder am Arbeitsplatz.

Voraussetzungen für einen verantwortungsvollen Einsatz

Öffentliche Stellen sollen die Stimm-, Sprach- und Gesichtserkennung nur unter Voraussetzung einer klaren gesetzlichen Grundlage nutzen können. Dabei sollen Notwendigkeit und Zweck des Einsatzes präzise genannt und die Bearbeitung der Daten auf das strikt Notwendige beschränkt bleiben. Die Anwender dieser Technologien sollen Unterstützung für einen rechtskonformen Einsatz erhalten. Die Betroffenen müssen ihrerseits der Erhebung von biometrischen Angaben zustimmen oder sie verweigern können, ohne dafür Nachteile – wie längere Wartezeiten oder höhere Kosten – in Kauf nehmen zu müssen. Zudem sind Fachstellen einzurichten, an die sich all jene wenden können, welche sich vor den Nachteilen der Sprach-, Stimm- und Gesichtserkennung schützen und ihre Rechte durchsetzen möchten. Entwickler und Hersteller biometrischer Erkennungssysteme sollen dafür sorgen, dass die erhobenen Daten, wenn möglich, in den Geräten selber gespeichert und verarbeitet werden. Unabdingbar ist schliesslich eine gesellschaftliche Debatte über die Vor- und Nachteile der Stimm-, Sprach- und Gesichtserkennung, und darüber, was im Bereich der automatischen biometrischen Erkennungssysteme erlaubt und was verboten sein soll. Die vorliegende Studie liefert die Fakten dazu.

In den Medien

Links und Downloads

Organisation

Projektgruppe:

  • Dr. Michael Friedewald, Fraunhofer-Institut für System- und Innovationsforschung ISI
  • Murat Karaboga, Fraunhofer-Institut für System- und Innovationsforschung ISI
  • Prof. Dr. iur. Astrid Epiney, Institut für Europarecht der Universität Freiburg i.Ue.

Begleitgruppe:

  • Dr. Bruno Baeriswyl, Datenschutzexperte, Mitglied des TA-SWISS Leitungsausschuss (TA-LA), Leiter der Begleitgruppe
  • Dominik Brumm, Head of Development Cubera
  • Prof. Dr. Volker Dellwo, Institut für Computerlinguistik, Universität Zürich
  • Dr. Jean Hennebert, Université de Fribourg und TA-LA
  • Dr. Anna Jobin, Soziologin
  • Prof. Dr. Annett Laube, Technik und Informatik, Berner Fachhochschule
  • Prof. Dr. Klaus Scherer, Swiss Center for Affective Sciences, Universität Genf
  • Remo Schmidlin, Jurist, Lenz & Staehelin
  • Prof. Dr. Thomas Vetter, Departement Mathematik und Informatik, Universität Basel
  • Patrick Walder, Amnesty International Schweiz

Kontakt

Laetitia Ramelet, TA-SWISS

laetitia.ramelet@ta-swiss.ch