Reconnaissance du visage, de la voix et de la parole

Authentication by facial recognition concept. Biometric admittance control device for security system. Asian man using face scanner to unlock glass door in office building.

Les données biométriques permettent d’identifier les individus sans équivoque et sont par conséquent particulièrement sensibles. Pour que la biométrie faciale, vocale et linguistique soit utilisée à bon escient, un cadre légal précis est nécessaire. Les autrices et auteurs de cette étude interdisciplinaire menée sur mandat de TA-SWISS formulent une série de recommandations pour rendre le recours à ces technologies fiable – et préconisent même l’interdiction de quelques applications particulièrement problématiques.

Teneur de l’étude

Aujourd’hui, de plus en plus d’appareils électroniques obéissent à une voix ou à un regard. Les assistants virtuels mettent de la musique, règlent le réveil et adaptent l’éclairage de la pièce sur simple commande vocale. Il est possible de déverrouiller son smartphone ou son ordinateur portable tout en gardant les mains libres, d’ouvrir des portes sans clé et de valider des paiements par reconnaissance faciale. Plutôt que de demander un mot de passe, le logiciel compare des caractéristiques corporelles uniques avec des valeurs de mesure et des processus enregistrés, ce grâce à des capteurs biométriques et à l’apprentissage automatique.

Le fait que les machines deviennent de plus en plus performantes pour nous reconnaître et nous « comprendre » se révèle parfois extrêmement pratique : par exemple, quelques mots d’un client ou d’une cliente au téléphone suffisent à l’identifier formellement, et comparer photos passeport et visages à l’arrivée à l’aéroport ne prend qu’un instant à un ordinateur. En Ukraine, la reconnaissance faciale permet de rechercher des personnes disparues ou d’identifier des personnes décédées. Mais les machines sont capables de déterminer bien plus que l’identité d’une personne à partir de son visage, de sa voix et de ses paroles : elles arrivent à tirer des conclusions sur ses émotions ou son état physique et mental. En médecine, les procédés de reconnaissance biométrique devraient aider au dépistage précoce d’affections comme la maladie de Parkinson ou d’Alzheimer, la dépression ou le burn-out, ou encore des pathologies rares.

Pas de surveillance cachée

À ce jour, le fonctionnement des systèmes de biométrie faciale, vocale et linguistique est toutefois loin d’être infaillible. Par exemple, la reconnaissance automatique des visages identifie les femmes et les personnes à la peau foncée avec moins de précision que les hommes blancs – un phénomène dû à des données d’entraînement erronées, incomplètes ou biaisées. Certes, il est à prévoir que la fiabilité technique ira en s’améliorant. Néanmoins, la surveillance généralisée, qui a souvent lieu à l’insu des personnes concernées, porte gravement atteinte à leur vie privée. Le recours aux technologies de reconnaissance faciale automatisée en temps réel est également contraire à d’autres droits fondamentaux essentiels au bon fonctionnement d’une démocratie, comme la liberté de réunion ou la liberté d’expression. En effet, toute personne qui redoute d’être observée en permanence a tendance à s’autocensurer. La pression de conformité exercée sur les individus pour qu’ils s’alignent sur le comportement du groupe va à l’encontre de la Constitution fédérale suisse. L’étude conclut donc que ce type de surveillance automatique dans l’espace public par la police ou d’autres autorités ne doit pas être autorisé. De même, il faut interdire le recours à des technologies de reconnaissance biométrique pour l’analyse de l’attention à l’école et pour les systèmes de prise de décision entièrement automatisés dans les secteurs de la santé, de la banque et de l’assurance, de l’application de la loi ou dans le monde du travail.

Conditions pour une utilisation responsable

Le recours à la reconnaissance de la voix, de la parole et du visage par les services publics doit reposer sur une base légale claire qui précise le caractère nécessaire et la finalité de l’utilisation, et limite le traitement des données au strict nécessaire. Les utilisatrices et utilisateurs de ces technologies doivent disposer de soutien pour les exploiter de manière conforme au droit en vigueur. Les personnes concernées doivent être en mesure d’accepter ou de refuser la collecte d’informations biométriques sans subir de désagréments, tels que des temps d’attente plus longs ou des coûts plus élevés. Il faut aussi mettre sur pied des services d’assistance auxquels peuvent s’adresser les personnes désireuses de se protéger des inconvénients liés à la reconnaissance de la voix, de la parole et du visage et qui veulent connaître et faire valoir leurs droits. Les développeurs et les fabricants de systèmes de reconnaissance biométrique doivent veiller, dans la mesure du possible, à stocker et à traiter les données collectées uniquement dans les appareils eux-mêmes. Enfin, il est indispensable de mener un débat de société sur les avantages et les inconvénients de la reconnaissance de la voix, de la parole et du visage, et sur ce qu’il faut autoriser ou interdire en matière de reconnaissance biométrique automatique. La présente étude livre des faits dans ce but

Dans les Médias

Liens et téléchargements

Organisation

Groupe de projet:

  • Dr Michael Friedewald, Fraunhofer-Institut für System- und Innovationsforschung ISI
  • Murat Karaboga, Fraunhofer-Institut für System- und Innovationsforschung ISI
  • Dre Astrid Epiney, Institut für Europarecht der Universität Freiburg i.Ue.

Begleitgruppe:

  • Dr Bruno Baeriswyl, Datenschutzexperte, Mitglied des TA-SWISS Leitungsausschuss (TA-LA), Leiter der Begleitgruppe
  • Dominik Brumm, Head of Development Cubera
  • Dr Volker Dellwo, Institut für Computerlinguistik, Universität Zürich
  • Dr Jean Hennebert, Université de Fribourg und TA-LA
  • Dre Anna Jobin, Soziologin
  • Dre Annett Laube, Technik und Informatik, Berner Fachhochschule
  • Dr Klaus Scherer, Swiss Center for Affective Sciences, Universität Genf
  • Remo Schmidlin, Jurist, Lenz & Staehelin
  • Dr Thomas Vetter, Departement Mathematik und Informatik, Universität Basel
  • Patrick Walder, Amnesty International Schweiz

Contact

Laetitia Ramelet, TA-SWISS

laetitia.ramelet@ta-swiss.ch