Dank des Fortschritts der Deepfake-Technologie wird es immer einfacher, die Stimmen von Menschen zu klonen. Einige Einsatzmöglichkeiten der Technologie, etwa das Erstellen von Voice-Overs, um Lücken zu schließen Roadrunner, der im vergangenen Sommer veröffentlichte Dokumentarfilm über Anthony Bourdain, sind harmlos (obwohl sogar die Ethik dieses Schrittes umstritten war). diskutiert als der Film herauskam). In anderen Fällen werden gefälschte Stimmen jedoch für ganz offensichtlich schändliche Zwecke verwendet – wie zum Beispiel den Diebstahl von Millionen Dollar.
An Artikel veröffentlicht letzte Woche von Forbes enthüllte, dass eine Gruppe von Cyberkriminellen in den Vereinigten Arabischen Emiraten Deepfake-Technologie im Rahmen eines Banküberfalls nutzte, bei dem insgesamt 35 Millionen US-Dollar aus dem Land auf Konten in der ganzen Welt überwiesen wurden.
Money Heist, Sprachausgabe
Alles, was Sie brauchen, um eine gefälschte Version der Stimme einer Person zu erstellen, ist eine Aufnahme des Sprechens dieser Person. Wie bei jedem maschinellen Lernsystem, dessen Ausgabe sich basierend auf der Quantität und Qualität seiner Eingabedaten verbessert, klingt eine gefälschte Stimme eher wie die echte Stimme, wenn mehr Aufnahmen vorhanden sind, aus denen das System lernen kann.
In diesem Fall verwendeten Kriminelle Deepfake-Software, um die Stimme einer Führungskraft eines großen Unternehmens nachzubilden (Details über das Unternehmen, die verwendete Software und die Aufzeichnungen zum Trainieren dieser Software scheinen nicht verfügbar zu sein). Anschließend riefen sie einen Bankmanager an, mit dem der Manager bereits eine Beziehung hatte, was bedeutete, dass der Bankmanager die Stimme des Managers kannte. Die Nachahmer schickten außerdem gefälschte E-Mails an den Bankmanager, in denen sie Einzelheiten der angeforderten Transaktionen bestätigten. Angesichts der E-Mails und der vertrauten Stimme, als die Führungskraft den Manager aufforderte, die Übertragung von Millionen von Dollar zwischen Konten zu genehmigen, sah der Manager kein Problem darin, dies zu tun.
Der Betrug fand im Januar 2020 statt, ist aber relevant Gerichtsdokument wurde erst letzte Woche in den USA eingereicht. Beamte in den Vereinigten Arabischen Emiraten bitten Ermittler in den USA um Hilfe bei der Suche nach 400,000 US-Dollar des gestohlenen Geldes, das auf US-Bankkonten bei der Centennial Bank geflossen ist.
Unsere Stimmen, unser Selbst
Das unmodern („alt“ bedeutet in diesem Zusammenhang, bevor maschinelles Lernen so allgegenwärtig war wie heute). Um eine gefälschte menschliche Stimme zu erstellen, musste man eine echte menschliche Stimme aufnehmen, diese Aufnahme in viele verschiedene Sprachsilben aufteilen und diese Silben dann in unzähligen zusammenfügen Permutationen, um die Wörter zu bilden, die die Stimme sagen soll. Es war mühsam und ergab eine Stimme, die überhaupt nicht realistisch klang.
Es ist leicht, die Stimmen von Menschen zu unterscheiden, die uns nahe stehen, und berühmte Stimmen zu erkennen – aber wir denken oft nicht über die vielen Komponenten nach, die dazu beitragen eine Stimme machen einzigartig. Es gibt die Klangfarbe und die Tonhöhe, die sich darauf beziehen, wo eine Stimme auf einer Reihe von Noten von tief nach hoch fällt. Da ist die Kadenz, also der Rhythmus des Sprechers und Variationen in der Tonhöhe und Betonung verschiedener Wörter oder Satzteile. Es gibt Aussprache und Eigenheiten wie regionale Akzente oder Lispeln.
Kurz gesagt, unsere Stimmen sind völlig einzigartig – was es umso gruseliger macht, dass sie sich immer einfacher synthetisch nachbilden lassen.
Falsche Stimmen werden kommen
Ist der Banküberfall in den VAE ein Vorbote künftiger Verbrechen? Leider ist die Antwort sehr wahrscheinlich: Ja. Es ist nicht der erste derartige Versuch, aber es ist der erste, dem es gelingt, mit einer gefälschten Stimme eine so große Geldsumme zu stehlen. Im Jahr 2019 eine Gruppe von Kriminellen hat die Stimme gefälscht Der CEO eines britischen Energieunternehmens soll 243,000 US-Dollar auf ein ungarisches Bankkonto überwiesen haben.
Viele verschiedene Versionen der Audio-Deepfake-Software sind bereits im Handel erhältlich, darunter Versionen von Unternehmen wie Lyrebird (was nur eine einminütige Aufnahme erfordert, um eine falsche Stimme zu erzeugen, wenn auch etwas stockend und roboterhaft), Beschreibung, Sonantisch und Veritone, Um nur einige zu nennen.
Diese Unternehmen beabsichtigen, ihre Produkte für einen guten Zweck zu nutzen, und es gibt sicherlich einige positive Anwendungsfälle; Menschen mit Sprachbehinderungen oder Lähmungen könnten die Software beispielsweise nutzen, um mit ihren Mitmenschen zu kommunizieren. Veritone vermarktet seine Software für die Nutzung durch berühmte Personen, die ihre Stimmen möglicherweise für Dinge wie Produktempfehlungen lizenzieren möchten. Sonantic hat kürzlich eine erstellt Stimmklon für Val Kilmer, dessen Stimme durch seinen Kampf gegen Kehlkopfkrebs geschädigt wurde. Auch das Aufzeichnen von Hörbüchern oder Nachrichten-Podcasts könnte eine produktive Anwendung der Technologie sein, da man derzeit entweder stundenlang vorlesen muss oder der Zuhörer eine computerisierte künstliche Stimme bekommt, die nicht sehr angenehm anzuhören ist.
Andere Unternehmen nutzen bereits KI, um sich gegen KI zu wehren; Der Video-Authentifikator von MicrosoftDas vor etwas mehr als einem Jahr veröffentlichte Programm analysiert Videos und Bilder und teilt den Nutzern mit, wie hoch die prozentuale Wahrscheinlichkeit ist, dass sie künstlich manipuliert wurden. Ebenso die Reality Defender der AI Foundation verwendet Algorithmen zur Erkennung synthetischer Medien, um gefälschte Inhalte zu identifizieren. Facebook, Twitter und YouTube haben alle Schritte unternommen, um zu versuchen, Deepfakes von ihren Websites zu verbieten und zu entfernen.
Aber diese Technologie wird immer ausgefeilter, und zwar in allen Bereichen: Sprache, Bild und Video. Der Kampf gegen Technologie mit mehr oder besserer Technologie mag eine unserer größten Hoffnungen sein, aber es ist auch wichtig, das Bewusstsein für Deepfakes zu schärfen und bei den Menschen ein weitreichendes Gefühl der Skepsis gegenüber Inhalten zu wecken, die sie online sehen.
Hoffen wir nur, dass der Vorfall mit dem Banküberfall in den Vereinigten Arabischen Emiraten eine ähnliche Skepsis bei den Bankangestellten hervorruft, damit gefälschte Stimmen, die Betrügern helfen, Geld zu stehlen, nicht häufiger vorkommen.
Bild-Kredit: John McGehjee/Wikimedia Commons
- 000
- 2019
- 2020
- Konto
- AI
- Algorithmen
- Alle
- Anwendung
- um
- Audio-
- Verbot
- Bank
- Bankkonto
- Banken
- Schlacht
- BESTE
- Kadenz
- Krebs
- Fälle
- CEO
- gemeinsam
- Unternehmen
- Unternehmen
- Inhalt
- Erstellen
- Kredit
- Verbrechen
- Criminals
- Cyber-Kriminelle
- technische Daten
- Deepfakes
- Entdeckung
- Dokumentarfilm
- Dollar
- emirates
- endet
- Energie
- Ethik
- Exekutive
- Fälschung
- Filme
- Vorname
- Forbes
- unten stehende Formular
- Betrug
- gut
- Gruppe an
- GUTE
- HTTPS
- identifizieren
- Image
- Einschließlich
- Die Ermittler
- IT
- grosse
- LERNEN
- lernen
- Lizenz
- Maschinelles Lernen
- Marketing
- Medien
- Million
- Geld
- schlauer bewegen
- News
- Online
- Andere
- Personen
- Podcasts
- Produkt
- Produkte
- Qualität
- erhöhen
- Realität
- Sinn
- Short
- Seiten
- So
- Software
- gespalten
- gestohlen
- Sommer
- System
- Tech
- Technologie
- erzählt
- Die Stimmen
- die Welt
- Transaktionen
- UAE
- Vereinigt
- Vereinte Arabische Emirate
- us
- Nutzer
- Video
- Videos
- Stimme
- STIMMEN
- Woche
- WHO
- Worte
- Arbeiten
- weltweit wie ausgehandelt und gekauft ausgeführt wird.
- Jahr
- Youtube