Décryptage #3 | Rupture[s]

Anonymiser la parole : un défi technologique, éthique et juridique

Magazine Science & Société | Décryptage #3 | Rupture[s]

Face à la présence prédominante de services comme ceux de Google, d’Apple, d’Amazon et autres, qui accumulent une immense quantité de données vocales personnelles, rendre notre voix neutre et anonyme devient un impératif.

 

Lorsque nous envoyons via Internet une image de nous, fixe ou mobile, à une entreprise ou un organisme d’État, nous savons qu’il existe un risque d’utilisation détournée de cette donnée personnelle.
C’est la même chose pour notre voix, qui est aussi unique que notre visage.

C’est ce constat qui a motivé Pierre Champion, chercheur de l’Institut national de recherche en sciences et technologies du numérique (INRIA) et ancien doctorant du Laboratoire d’Informatique de l’Université du Mans (LIUM), à préparer et soutenir une thèse sur l’anonymisation de la voix : « Mon objectif était de développer une solution permettant de supprimer, d’un point de vue acoustique, les informations personnelles contenues dans la parole ».

Ces dernières décennies, les entreprises et les chercheurs se sont concentrés sur les multiples paramètres permettant d’identifier une voix : sonorité, hauteur, timbre, tonalité, accentuation, rugosité, fluidité, articulation, prononciation, énonciation, et bien d’autres encore, qui sont autant de paramètres variables en fonction du sexe, de l’âge, du poids, etc. Ils sont difficiles à cerner d’autant que, comme le souligne Pierre Champion, « la voix change d’un jour à l’autre »

L’anonymisation de la parole n’est devenue que récemment une préoccupation majeure, à mesure que les technologies se sont perfectionnées : « C’est depuis 2016 que l’on se rend compte que le partage de notre parole avec des services tels que ceux proposés par Google, Apple ou autres pose des problèmes éthiques, juridiques et de respect de la vie privée de manière générale », commente le chercheur.

« Peu de pays ont commencé à légiférer réellement sur la question, à l’instar de l’Europe, qui a mis en place le Règlement général sur la protection des données (depuis 2018, NDLR) ».

La plupart des techniques actuelles sont réversibles

L’un des exemples les plus courants d’anonymisation de la parole est celui des voix modifiées dans certains documentaires, souvent graves et robotiques, afin que les sources interviewées par le/la journaliste ne soient pas reconnaissables. 
« L’algorithme appliqué est l’un des plus simples : un changement fréquentiel et linéaire appliqué deux fois », précise le chercheur.

Seulement, cette technique, comme d’autres, est selon lui réversible : avec un peu de travail, il est possible de remonter à la voix originale. Une grande partie de sa thèse est d’ailleurs consacrée à l’évaluation des méthodes existantes. 
La technique qu’il a développée (et partagée en open source) transforme une voix en une version neutre, sans même avoir besoin d’identifier ses caractéristiques originales.
« Les gens sont de plus en plus sensibilisés au risque de détournement de leur voix », ajoute-t-il en brandissant une brochure de la Commission nationale de l’informatique et des libertés (CNIL)*. « Toutefois, s’ils craignent de posséder une caméra connectée chez eux, ils redoutent généralement moins d’avoir une enceinte connectée.

Les deux dispositifs sont pourtant capables d’enregistrer des données hautement sensibles, qui peuvent faire l’objet d’une usurpation d’identité. Par exemple, une voix ressemblante peut parfaitement appeler leur banquier pour effectuer des opérations à leur insu. L’idée, à travers ma thèse, est donc de ne plus avoir besoin de faire confiance aux services qui collectent nos données vocales, puisque la voix sera anonymisée en amont. »

Et nous pourrons alors tous parler sans crainte dans un téléphone.

 

*« À votre écoute – Exploration des enjeux éthiques, techniques et juridiques des assistants vocaux », 2020. 

 

Pierre Champion, ancien doctorant - chercheur de l’Institut national de recherche en sciences et technologies du numérique (INRIA), et porteur du projet Deep-Privacy
Laboratoire d’Informatique de l’Université du Mans [LIUM].