
« Nous avons été stupéfaits. Nous étions convaincus que nous parlions à Brandon. »
Les escrocs impitoyables sont toujours à la recherche de la prochaine grande arnaque, et ils l’ont peut-être trouvée : utiliser l’IA pour imiter vos proches au téléphone.
Lorsque Ruth Card, âgée de 73 ans, a entendu ce qu’elle pensait être la voix de son petit-fils Brandon à l’autre bout du fil, disant qu’il avait besoin d’argent pour payer une caution, elle et son mari se sont précipités à la banque.
« C’était vraiment un sentiment de… peur », a déclaré Mme Card au Washington Post. « Il faut qu’on l’aide tout de suite. »
Le couple a retiré le maximum, soit 3 000 dollars canadiens dans une banque et s’est rendu dans une autre pour en avoir plus. Heureusement, un directeur de banque vigilant leur a fait signe et les a avertis qu’un autre client avait reçu un appel téléphonique similaire qui semblait provenir d’un être cher – mais il s’est avéré que la voix était fausse.
« Nous avons été stupéfaits », a déclaré Ruth Card. « Nous étions convaincus que nous parlions à Brandon. »
Problèmes juridiques
Tous n’ont pas eu autant de chance. Benjamin Perkin, 39 ans, a raconté au WaPo (Washington Post) comment ses parents âgés se sont fait escroquer des milliers de dollars avec l’aide d’un imitateur de l’IA.
Les parents de Benjamin Perkin avaient reçu un appel téléphonique d’un avocat, qui prétendait que leur fils avait tué un diplomate américain dans un accident de voiture et avait besoin d’argent pour payer les frais de justice. L’avocat apparent a alors laissé Benjamin Perkin parler au téléphone – et la voix lui ressemblait.
Cela les a convaincus. Lorsque l’avocat a rappelé plus tard pour demander 21 000 dollars canadiens, ses parents sont allés à la banque et ont envoyé l’argent par BitCoin.
« L’argent a disparu », a déclaré Benjamin Perkin au journal. « Il n’y a pas d’assurance. Il n’est pas possible de le récupérer. C’est parti. »
Récupérations faciles
Les arnaques au clonage de la voix sont une menace depuis plusieurs années maintenant. Mais l’omniprésence croissante d’une IA puissante et facile à utiliser signifie que le potentiel d’abus de la technologie dépasse facilement la capacité d’un public non averti à suivre les astuces des mauvais acteurs – sans réaliser qu’ils pourraient déjà les cibler.
« Il y a deux ans, même un an, vous aviez besoin de beaucoup d’audio pour cloner la voix d’une personne », a déclaré Hany Farid, professeur de médecine légale à UC Berkeley. « Maintenant… si vous avez une page Facebook… ou si vous avez enregistré un TikTok et que votre voix y figure pendant 30 secondes, les gens peuvent cloner votre voix. »
Prenez ElevenLabs, dont le service de synthèse vocale par IA ne coûte aussi que 5 dollars par mois, et peut produire des résultats si convaincants qu’un journaliste l’a utilisé pour cambrioler son propre compte en banque. Il a même donné naissance à un genre entier de mèmes imitant le président Joe Biden. Le clonage vocal d’ElevenLabs n’existe que depuis 2022. Imaginez les dégâts qu’il pourrait causer dans quelques années, ainsi que les concurrents qui cherchent à tirer parti de son succès.
https://futurism.com/the-byte/scammers-voice-cloning-grandma-jail
https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/