Gefälschte Videokonferenz Deepfake-Gangster erbeuten 22 Millionen Franken

Von Dirk Jacquemien

5.2.2024

Dank Künstlicher Intelligenz kannst du deinen eigenen Augen nicht mehr trauen.
Dank Künstlicher Intelligenz kannst du deinen eigenen Augen nicht mehr trauen.
Imago

Es könnte sich um den bisher grössten Betrug mit Deepfake-Videos handeln. In Hongkong erbeuteten Unbekannte dank der Technik 22 Millionen Franken.

Von Dirk Jacquemien

Keine Zeit? blue News fasst für dich zusammen

  • Deepfake-Videos werden immer überzeugender und immer häufiger für Betrügereien verwendet.
  • Dank einer gefälschten Videokonferenz haben Betrüger*innen ein Unternehmen jetzt um 22 Millionen Franken erleichtern.
  • Dennoch gibt es auch heute noch Mittel und Wege, sich zu schützen.

In Hongkong wurden einem Unternehmen dank Deepfake-Technologie 22 Millionen Franken gestohlen, wie die dortige Polizei laut der «South China Morning Post» vermeldet. Den unbekannten Betrüger*innen gelang es, einen Mitarbeiter der Hongkonger Zweigstelle eines «multinationalen Unternehmens» – weitere Details zur betroffenen Firma gab die Polizei nicht bekannt – mit gefälschten Videos zu täuschen.

Der Mitarbeiter wurde dabei von den Betrüger*innen zu einer Videokonferenz eingeladen. Daran nahmen vermeintlich mehrere, ihm persönlich bekannte Führungskräfte des Unternehmens teil, darunter auch der Chief Financial Officer. Dieser befahl ihm, «geheime Transaktionen» durchzuführen.

In der Woche nach der Videokonferenz gaben die Betrüger*innen dem Mitarbeiter weitere Anweisungen, entweder per Textnachricht oder in einzelne Videotelefonaten. Insgesamt schafften sie es so, den Mitarbeiter zur Überweisung von insgesamt 200 Millionen Hongkong-Dollar (22 Mio. Franken) an 15 verschiedene Bankkonten zu bewegen.

Deepfake wird immer besser

Doch die Personen, mit der Mitarbeiter vermeintliche Videochats führten, waren alle durch Künstliche Intelligenz erzeugte Fälschung, auch Deepfakes genannt. Diese Technik machte in den letzten Jahren rasante Fortschritte, sodass es nun in Echtzeit möglich ist, Gesicht und Stimme einer anderen Person überzeugend zu imitieren.

Polizeiinspektor Tyler Chan Chi-wing sagt, es gäbe dennoch Möglichkeiten, Fälschungen zu erkennen. So könnte man Gesprächspartner*innen bei Videokonferenzen bitten, den Kopf zu drehen oder ihnen persönliche Fragen zu stellen. Und sobald es um den Transfer von Geld geht, sollten sowieso die Alarmglocken läuten.