banner
Centre d'Information
Nos produits sont largement appréciés par ceux qui les achètent.

Dans les tubes : les tuyaux en PVC courants peuvent pirater les systèmes d'identification vocale

Aug 12, 2023

Shimaa Ahmed, doctorant travaillant dans le laboratoire du professeur Kassem Fawaz, a déterminé une méthode pour déjouer les systèmes d'identification automatique des locuteurs en utilisant le type de tuyau en PVC que l'on trouve dans n'importe quelle quincaillerie. Todd Brun

Les chercheurs sont engagés dans une course aux armements contre les pirates informatiques pour empêcher le vol de données. Leurs outils standard incluent des stratégies telles que les systèmes d’authentification multifactorielle, la technologie des empreintes digitales et les scans rétiniens. Un type de système de sécurité qui gagne en popularité est l'identification automatique du locuteur, qui utilise la voix d'une personne comme code d'accès.

Ces systèmes, déjà utilisés pour les services bancaires par téléphone et d'autres applications, sont efficaces pour éliminer les attaques qui tentent de falsifier la voix d'un utilisateur par le biais de manipulations numériques. Mais les ingénieurs en sécurité numérique de l’Université du Wisconsin-Madison ont découvert que ces systèmes ne sont pas aussi infaillibles lorsqu’il s’agit d’une nouvelle attaque analogique. Ils ont découvert que parler à travers des tuyaux en PVC personnalisés – ceux que l’on trouve dans la plupart des quincailleries – peut tromper les algorithmes d’apprentissage automatique qui prennent en charge les systèmes d’identification automatique des locuteurs.

Kassam Fawaz est professeur adjoint au Département de génie électrique et informatique. Photo : Althéa Dotzour

L'équipe, dirigée par le doctorant Shimaa Ahmed et Kassem Fawaz, professeur de génie électrique et informatique, a présenté ses conclusions le 9 août au Usenix Security Symposium à Anaheim, en Californie.

Les risques posés par les failles de sécurité analogiques pourraient être considérables. Ahmed souligne que de nombreuses sociétés commerciales vendent déjà cette technologie, et que les institutions financières comptent parmi leurs premiers clients. La technologie est également utilisée pour les assistants personnels basés sur l'IA, comme Siri d'Apple.

« Les systèmes sont désormais annoncés comme aussi sûrs qu'une empreinte digitale, mais ce n'est pas très précis », explique Ahmed. « Tous ces éléments sont susceptibles d’être attaqués sur l’identification du locuteur. L’attaque que nous avons développée est très bon marché ; procurez-vous simplement un tube à la quincaillerie et changez de voix.

Le projet a débuté lorsque l’équipe a commencé à étudier les faiblesses des systèmes d’identification automatique des locuteurs. Lorsqu’ils parlaient clairement, les modèles se comportaient comme annoncé. Mais lorsqu’ils parlaient avec leurs mains ou dans une boîte au lieu de parler clairement, les modèles ne se comportaient pas comme prévu.

Ahmed a étudié s'il était possible de modifier la résonance, ou les vibrations de fréquence spécifique, d'une voix pour vaincre le système de sécurité. Parce que son travail a commencé alors qu’elle était coincée à la maison à cause du COVID-19, Ahmed a commencé par parler à travers des tubes d’essuie-tout pour tester l’idée. Plus tard, après son retour au laboratoire, le groupe a embauché Yash Wani, alors étudiant de premier cycle et maintenant doctorant, pour l'aider à modifier les tuyaux en PVC à l'UW Makerspace. En utilisant différents diamètres de tuyaux achetés dans une quincaillerie locale, Ahmed, Yani et leur équipe ont modifié la longueur et le diamètre des tuyaux jusqu'à ce qu'ils puissent produire la même résonance que celle qu'ils tentaient d'imiter.

Finalement, l’équipe a développé un algorithme capable de calculer les dimensions des tuyaux en PVC nécessaires pour transformer la résonance de presque n’importe quelle voix afin d’en imiter une autre. En fait, les chercheurs ont réussi à tromper les systèmes de sécurité avec l’attaque du tube en PVC dans 60 % des cas lors d’un test de 91 voix, tandis que des imitateurs humains inchangés n’ont réussi à tromper les systèmes que 6 % du temps.

L’attaque par usurpation d’identité fonctionne pour plusieurs raisons. Premièrement, le son étant analogique, il contourne les filtres d'attaque numérique du système d'authentification vocale. Deuxièmement, le tube ne transforme pas une voix en une copie exacte d’une autre, mais usurpe plutôt la résonance de la voix cible, ce qui suffit à amener l’algorithme d’apprentissage automatique à mal classer la voix attaquante.

Fawaz affirme qu'une partie de la motivation derrière le projet est simplement d'alerter la communauté de la sécurité que l'identification vocale n'est pas aussi sécurisée que beaucoup de gens le pensent, même s'il affirme que de nombreux chercheurs sont déjà conscients des défauts de la technologie.

Le projet a également un objectif plus vaste.