Les escrocs utilisent l’IA générant de la voix pour tromper les gens
En bref : une grande crainte concernant la capacité de l’IA à recréer parfaitement la voix d’une personne est son potentiel d’escroquerie. Ce type de technologie a fait d’énormes progrès au cours des derniers mois et, sans surprise, est exploité par des criminels qui peuvent usurper une voix pour convaincre la famille de son propriétaire que la personne a besoin d’une aide financière.
Le Washington Post rapporte qu’un couple canadien dans la soixantaine a récemment reçu un appel téléphonique de ce qui ressemblait à leur petit-threads affirmant qu’il était en prison et avait besoin d’une caution. Ils ont retiré un maximum de 3 000 dollars canadiens d’une banque et s’apprêtaient à retirer le même montant d’une autre lorsque le gérant leur a dit qu’ils se faisaient arnaquer; il s’est avéré qu’un autre client avait reçu un appel similaire et avait appris qu’il avait été truqué.
Un autre couple qui n’a pas eu autant de chance était les parents de Benjamin Perkin. Ils ont reçu un appel d’un avocat disant que leur threads avait tué un diplomate américain dans un accident de voiture, et Perkin était en prison et avait besoin d’argent pour les frais juridiques. L’avocat a mis Perkin au téléphone, qui a dit qu’il les aimait et appréciait l’argent.
La voix était « suffisamment proche pour que mes parents croient vraiment qu’ils m’ont parlé », a déclaré Perkin. Ses parents ont envoyé 15 449 $ à l’escroc via un terminal bitcoin et n’ont pas pu le récupérer.
Les escroqueries vocales ne sont pas nouvelles. Les données de la Federal Trade Commission révèlent que sur les 36 000 rapports l’année dernière de personnes escroquées par des criminels prétendant être des amis ou de la famille, plus de 5 100 de ces incidents se sont produits par téléphone.
L’usurpation de la voix d’une personne était autrefois une procédure compliquée et longue impliquant la découverte et la collecte d’heures d’audio, et le résultat final n’était pas toujours très convaincant. Maintenant, cependant, les outils d’intelligence artificielle ont rendu le processus si facile que les escrocs n’ont besoin que d’un petit extrait d’une personne qui parle, souvent recueilli à partir d’un compte de réseau social, pour recréer sa voix avec précision.
Un exemple de cette technologie est l’outil Vall-E de Microsoft que la société a annoncé en janvier. S’appuyant sur une technologie appelée EnCodec que Meta a annoncée en octobre 2022, elle fonctionne en analysant la voix d’une personne, en décomposant les informations en composants et en utilisant sa formation pour synthétiser le son de la voix si elle prononçait des phrases différentes. Même après avoir entendu seulement un exemplaire de trois secondes, Vall-E peut reproduire le timbre et le ton émotionnel d’un haut-parleur. Découvrez à quel point il est étrangement convaincant sur cette page GitHub.
ElevenLabs, qui propose un outil vocal d’IA génératif, a récemment tweeté qu’il voyait « un nombre croissant de cas d’abus de clonage de voix ». Cela a conduit à la suppression de la capacité de clonage de la voix de la version gratuite de son programme VoiceLab.