Betrüger Erfolgreich Deepfaked CEO ‘ s Voice Zu Täuschen Untergebenen In der Übertragung von $243,000

Illustration for article titled Scammer Successfully Deepfaked CEO's Voice To Fool Underling Into Transferring $243,000 Foto: Sean Gallup (Getty)

Der Geschäftsführer der Energie-Firma mit Sitz in Großbritannien, dachte, dass er nach seinem Chef den dringenden Bestellungen im März, wenn er den Fonds übertragen, um eine Dritte-Partei. Aber der Antrag kam übrigens von der AI-assisted Stimme eines Betrügers.

Das Wall Street Journal berichtet, dass die mark glaubte, Sprach er zu dem Geschäftsführer seiner Unternehmen, die Muttergesellschaft mit Sitz in Deutschland. Der Deutsche Akzent Anrufer forderte ihn auf, senden €220,000 ($243,000 USD) zu Ungarische Lieferanten innerhalb der Stunde. Die Firma Versicherung, Euler Hermes Group SA, freigegebene Informationen über die Verbrechen, die mit WSJ aber nicht verraten die Namen der angesprochenen Unternehmen.

Euler Hermes Betrug-Experte Rüdiger Kirsch sagte WSJ, dass das Opfer erkannte seinen Vorgesetzten Stimme, denn es hatte einen Hauch von einem deutschen Akzent und die gleiche “Melodie”. Dies war angeblich das erste mal, Euler Hermes hat sich mit Kunden als betroffene von Straftaten verwendet, die AI-Mimikry.

Article preview thumbnail

Diese AI-Erzeugt, Joe Rogan Stimme Klingt Unheimlich Wie die Reale Sache

In den letzten Jahren unheimlich treffsicher deepfake videos bekommen eine Menge Presse, aber die automatisierte Stimme…

Lesen Sie mehr Lesen

Kirsch sagte WSJ die Betrüger genannt, die betroffenen Unternehmen um das dreifache. Sobald die übertragung stattgefunden, die Angreifer ein zweites mal aufgerufen, um fälschlicherweise behaupten, das Geld sei zurückerstattet worden sind. Dann die hacker berichten zufolge rief ein drittes mal zu Fragen, für eine weitere Zahlung. Obwohl die gleichen fake-Stimme verwendet wurde, der Letzte Anruf erfolgte, mit einer österreichischen Telefonnummer und die “Erstattung” hatte nicht mitgemacht, so dass das Opfer immer skeptisch des Anrufers und Authentizität nicht erfüllen.

AI-generierte voice-Technologie hat sich zu verstörend realistisch, in den letzten Monaten und Kirsch sagte dem Journal, dass er glaubt, dass die kommerziell verfügbare software wurde verwendet, um Erleichterung der betrügerische executive Identitätswechsel. Im Mai, der KI-Firma Dessa veröffentlicht eine simulation der podcaster Joe Rogan Sprach-das war eine nahezu perfekte Nachbildung seines t-kiesigen timbre. Es war so ähnlich wie die Reale Sache, dass ein langjähriger Hörer Schwierigkeiten haben würde, die Unterscheidung zwischen Joe Rogan und “Joe Fauxgan.”

Als für die unbekannte Energie, die die Unternehmen Geld gestohlen, es wurde angeblich an eine Ungarische bank-Konto verschoben, um ein Konto in Mexiko, und anschließend verteilten Sie an verschiedenen anderen Standorten. Keine verdächtigen ermittelt worden.

Dessa demonstriert die Technik in einem blog-post erläutert die gesellschaftlichen Konsequenzen der Technologie und schlägt vor, ein paar Beispiele von kriminellen Möglichkeiten, die deepfake Stimmen könnte verwendet werden, einschließlich der Wahl-manipulation, Vortäuschung, die Mitglieder der Familie, und gewinnt Sicherheitsüberprüfung. Der blog heißt es, dass “in den nächsten Jahren (oder auch früher), werden wir sehen, wie die Voraus-Technologie bis zu dem Punkt, wo nur ein paar Sekunden audio werden benötigt, um ein Leben zu kreieren-wie Replik von jeder Stimme auf dem Planeten.”

Die Energie-Firma CEO wurde ausgetrickst von einem fake-AI-unterstützt voice-zwei Monate vor Dessa ‘ s Warnung gepostet wurde.

Teilen Sie Diese Geschichte


Date:

by