Grâce aux progrès de la technologie deepfake, il devient de plus en plus facile de cloner la voix des gens. Certaines utilisations de la technologie, comme la création de voix off pour combler les lacunes Roadrunner, le documentaire sur Anthony Bourdain sorti l'été dernier, sont inoffensifs (même si même l'éthique de cette démarche était chaudement débattue à la sortie du film). Dans d'autres cas, cependant, des voix truquées sont utilisées à des fins très clairement néfastes, comme voler des millions de dollars.
An article publié la semaine dernière par Forbes a révélé qu'un groupe de cybercriminels aux Émirats arabes unis avait utilisé une technologie de deepfake dans le cadre d'un cambriolage de banque qui a transféré un total de 35 millions de dollars hors du pays et sur des comptes dans le monde entier.
Money Heist, édition vocale
Tout ce dont vous avez besoin pour créer une fausse version de la voix de quelqu'un est un enregistrement de cette personne qui parle. Comme pour tout système d'apprentissage automatique dont la sortie s'améliore en fonction de la quantité et de la qualité de ses données d'entrée, une voix deepfaked ressemblera davantage à la vraie chose s'il y a plus d'enregistrements pour que le système puisse apprendre.
Dans ce cas, les criminels ont utilisé un logiciel deepfake pour recréer la voix d'un dirigeant d'une grande entreprise (les détails autour de l'entreprise, le logiciel utilisé et les enregistrements pour former ledit logiciel ne semblent pas être disponibles). Ils ont ensuite passé des appels téléphoniques à un directeur de banque avec lequel le dirigeant avait une relation préexistante, ce qui signifie que le directeur de banque connaissait la voix du dirigeant. Les imitateurs ont également envoyé de faux courriels au directeur de la banque confirmant les détails des transactions demandées. Entre les e-mails et la voix familière, lorsque le cadre a demandé au gestionnaire d'autoriser le transfert de millions de dollars entre les comptes, le gestionnaire n'a vu aucun problème à aller de l'avant et à le faire.
La fraude a eu lieu en janvier 2020, mais un document de la cour vient d'être déposé aux États-Unis la semaine dernière. Des responsables des Émirats arabes unis demandent aux enquêteurs américains de les aider à retrouver 400,000 XNUMX $ de l'argent volé qui sont allés sur des comptes bancaires américains à la Centennial Bank.
Nos voix, nous-mêmes
Les façon à l'ancienne (« vieux » dans ce contexte signifiant avant que l'apprentissage automatique ne soit aussi omniprésent qu'aujourd'hui) faire une fausse voix humaine consistait à enregistrer une vraie voix humaine, diviser cet enregistrement en plusieurs syllabes distinctes de discours, puis coller ces syllabes ensemble dans d'innombrables permutations pour former les mots que vous vouliez que la voix prononce. C'était fastidieux et donnait une voix qui ne sonnait pas du tout réaliste.
Il est facile de différencier les voix des personnes proches de nous et de reconnaître les voix célèbres, mais nous ne réfléchissons pas souvent aux nombreux éléments qui contribuent à faire une voix unique. Il y a le timbre et la hauteur, qui se réfèrent à l'endroit où une voix tombe sur une plage de notes de grave à aiguë. Il y a la cadence, qui est le rythme du locuteur et les variations de hauteur et d'accent mis sur différents mots ou parties d'une phrase. Il y a la prononciation et les bizarreries comme les accents régionaux ou les zézaiements.
En bref, nos voix sont totalement uniques, ce qui les rend d'autant plus effrayantes qu'elles deviennent plus faciles à recréer synthétiquement.
Fausses voix à venir
Le braquage d'une banque aux Émirats arabes unis est-il un signe avant-coureur de crimes à venir ? Malheureusement, la réponse est très probablement oui. Ce n'est pas la première tentative de ce genre, mais c'est la première à réussir à voler une si grosse somme d'argent en utilisant une voix truquée. En 2019, un groupe de criminels truqué la voix du PDG d'une entreprise énergétique basée au Royaume-Uni d'avoir viré 243,000 XNUMX $ sur un compte bancaire hongrois.
De nombreuses versions différentes de logiciels audio deepfake sont déjà disponibles dans le commerce, y compris des versions de sociétés telles que Lyrebird (qui n'a besoin que d'un enregistrement d'une minute pour créer une fausse voix, bien que légèrement hésitante et semblable à un robot), Descript, Sonantiqueainsi que Veritone, pour en nommer quelques uns.
Ces entreprises ont l'intention d'utiliser leurs produits pour de bon, et il existe certainement des cas d'utilisation positifs ; les personnes souffrant de troubles de la parole ou de paralysie pourraient utiliser le logiciel pour communiquer avec leur entourage, par exemple. Veritone commercialise son logiciel à l'intention de personnes célèbres qui souhaitent peut-être concéder leur voix sous licence pour des choses comme les recommandations de produits. Sonantic a récemment créé un clone de voix pour Val Kilmer, dont la voix a été endommagée par sa bataille contre le cancer de la gorge. L'enregistrement de livres audio ou de podcasts d'actualités pourrait également être une application productive de la technologie, car à l'heure actuelle, une personne doit soit lire à haute voix pendant des heures, soit l'auditeur obtient une voix artificielle informatisée qui n'est pas très agréable à écouter.
D'autres entreprises utilisent déjà l'IA pour lutter contre l'IA ; Authentificateur vidéo de Microsoft, sorti il y a un peu plus d'un an, analyse les vidéos et les images et indique aux utilisateurs le pourcentage de chance qu'ils aient été manipulés artificiellement. De même, le Défenseur de la réalité de la Fondation AI utilise des algorithmes de détection de médias synthétiques pour identifier les faux contenus. Facebook, Twitterainsi que YouTube ont tous pris des mesures pour essayer d'interdire et de supprimer les deepfakes de leurs sites.
Mais cette technologie ne fera que devenir plus sophistiquée et dans tous les domaines : voix, image et vidéo. Combattre la technologie avec plus ou une meilleure technologie peut être l'un de nos meilleurs espoirs, mais il est également important de sensibiliser les gens aux deepfakes et d'instiller un large sentiment de scepticisme chez les gens à propos du contenu qu'ils voient en ligne.
Espérons simplement que l'incident du cambriolage de banque aux Émirats arabes unis suscite un scepticisme similaire chez les personnes qui travaillent dans les banques, de sorte que les voix truquées aidant les fraudeurs à voler de l'argent ne deviennent pas plus courantes.
Crédit image: John McGehjee/Wikimedia Commons
- 000
- 2019
- 2020
- Compte
- AI
- algorithmes
- Tous
- Application
- autour
- acoustique
- Interdire
- Banque
- compte bancaire
- Banks
- Bataille
- LES MEILLEURS
- Cadence
- Cancer
- cas
- CEO
- Commun
- Sociétés
- Société
- contenu
- La création
- crédit
- Crimes
- Criminels
- les cybercriminels
- données
- deepfakes
- Détection
- documentaire
- dollars
- émirats
- se termine
- énergie
- éthique
- exécutif
- faux
- Film
- Prénom
- Forbes
- formulaire
- fraude
- Bien
- Réservation de groupe
- Haute
- HTTPS
- identifier
- image
- Y compris
- Les enquêteurs ont
- IT
- gros
- APPRENTISSAGE
- apprentissage
- Licence
- machine learning
- Stratégie
- Médias
- million
- de l'argent
- Bougez
- nouvelles
- en ligne
- Autre
- Personnes
- Podcasts
- Produit
- Produits
- qualité
- augmenter
- Réalité
- sens
- Shorts
- Sites
- So
- Logiciels
- scission
- volé
- été
- combustion propre
- technologie
- Technologie
- raconte
- Les voix
- le monde
- Transactions
- UAE
- Uni
- Émirats arabes unis
- us
- utilisateurs
- Vidéo
- Vidéos
- Voix
- VOIX
- semaine
- WHO
- des mots
- Activités principales
- world
- an
- Youtube