Deep Fake – Eine neue Qualität von Angriffen

Neben den extrem auffälligen „Payment Diversion Vorgängen“, bei denen Bankdaten auf Anweisung der Täter, die sich beispielsweise als Lieferant ausgeben und zu Zahlungen auf falsche Konten führen, gibt es eine neue Variante des „Fake President Falles“, die deutlich schwieriger zu durchschauen ist.

Diese Betrugsmasche, die im Deutschen auch „der falsche Chef“ genannt wird, ist seit Jahren ein Dauerbrenner, auf den leider immer wieder Mitarbeiter hereinfallen. Bei der Masche wird ein Mitarbeiter vom angeblichen Chef gezielt manipuliert, um Geld in enormer Höhe an fremde Konten zu überweisen. In den meisten Fällen ist das Geld dann unwiederbringlich verloren.

Weiterentwicklung des Betrugsmodels sorgt trotz Kenntnis immer wieder für neue Opfer

Der Betrugsfall hat sich über die Jahre in immer neuen Varianten präsentiert. Hierbei passten die Kriminellen das „Erfolgsmodell“ regelmäßig an: Was mit einem einfachen Anruf, Schmeichelei gegenüber dem Mitarbeiter, der Vorgabe zur Geheimhaltung und dem nötigen Zeitdruck um den Mitarbeiter zur Überweisung zu nötigen begann, wurde später durch Hinzunahme von falschen Rechtsanwälten, falscher Mitarbeiter der Bundesanstalt für Finanzdienstleistungsaufsicht oder weiteren Institutionen auf erhöhte Glaubwürdigkeit getrimmt. Als auch dieser Trick bekannt war, kamen weitere Varianten mit der „eigenen IT-Abteilung“ oder der „Polizei“ hinzu: Die angeblich eigene IT-Abteilung oder Polizei erklärten glaubhaft man wisse, dass ein Fake President Vorgang im Unternehmen läuft, das Geld aber dennoch überwiesen werden sollte, um es zum Täter nachverfolgen zu können. Ergänzend wurden immer häufiger ausländische Tochtergesellschaften angegriffen, bei denen die Sicherheitsmaßnahmen nicht immer den gleichen Standard haben wie bei der Muttergesellschaft.

Nun bekommt die Masche ein neues Update: In einer Telefon-/Videokonferenz wird der „Chef“ durch Stimmmodulation oder sogar Bildbearbeitung täuschend echt imitiert. Das schafft noch nachdrücklicher die Überzeugung, dass die Anweisung echt ist. Diese sogenannten Deep Fakes werden mit Hilfe von künstlicher Intelligenz aus wenigen Mitschnitten von Originalaufnahmen gefertigt. Deep Fakes sind kaum noch als Fälschung zu erkennen. Beispiele hierzu gibt es im Internet mit einem falschen Tom Cruise oder Angela Merkel, die sich nur unmerklich vom Original unterscheiden. Der Betrugsexperte Rüdiger Kirsch vom führenden Vertrauensschadenversicherer sieht hier eine enorme Steigerung der Fälle für die Zukunft voraus.

Für Unternehmen bleibt nur der Versuch, sich durch erhöhte Wachsamkeit und eine offene Unternehmenskultur mit forcierten Rückfragen sowie die ständige Sensibilisierung der Mitarbeiter vor solchen Angriffen zu schützen.

Falls es trotz aller Vorsichtsmaßnahmen zum Schaden kommen sollte, bietet eine Vertrauensschadenversicherung mit aktuellen Bedingungen und adäquaten Versicherungssummen Schutz. Bei Fragen hierzu sprechen Sie uns bitte an.