Zum Hauptinhalt springen

KI-gestützte Cyberkriminalität: 
Das nächste Level?

Nach einem großen Durchbruch im Jahr 2023 wird generative künstlichen Intelligenz (KI) nun auch von Cyberkriminellen eingesetzt, um Aktivitäten zu automatisieren und zu verbessern, schneller zu arbeiten oder Angriffstaktiken weiterzuentwickeln.

  • Am Montag, den 29. Januar 2024, meldete ein Angestellter eines Ingenieurbüros den Behörden in Hongkong, dass er an einer Videokonferenz teilgenommen habe und dazu gebracht worden sei, 200 Mio. HK-Dollar (etwa 25 Mio. US-Dollar) seines Unternehmens an einen Betrüger zu zahlen. Kurz nachdem die Polizei von Hongkong ihre Ermittlungen aufgenommen hatte, erkannte Senior Superintendent Baron Chan, dass es sich hier um einen der bisher dreistesten Diebstähle mit Hilfe von KI handelte.2

    Innerhalb einer Woche schickte Chan eine Warnung an die Welt und teilte den Medien mit, dass es sich um einen Deepfake-Angriff auf das Unternehmen handelte.  Dazu Chan: "Weil die Personen in der Videokonferenz wie echte Personen aussahen, führte der Angestellte, wie angewiesen, 15 Transaktionen aus... Ich vermute, dass der Betrüger im Voraus Videos heruntergeladen und dann KI verwendet hat, um gefälschte Stimmen in der Videokonferenz zu verwenden."

  • Später stellte sich heraus, dass dieser Mitarbeiter für das britische multinationale Unternehmen Arup arbeitete, das etwa 18.500 Mitarbeiter in 40 Ländern beschäftigt. Der Vorfall bei Arup ist inzwischen als "Zoom of Doom" bekannt. Arup ist nicht das einzige Unternehmen, das von Deepfakes bedroht ist. Auch WPP, eines der weltgrößten Werbeunternehmen, war einem Deepfake-Angriff ausgesetzt:

    Cyberkriminelle klonten die Stimme des CEO Mark Read. Anhand eines gefälschten Profils versuchten sie mithilfe von WhatsApp Sprachnachrichten seine Kollegen dazu zu bewegen, Geld und persönliche Daten zu übermitteln.3 Im April vereitelte ein Mitarbeiter von LastPass, ein webbasierter Passwortmanager-Online-Dienst, einen Cyberangriff von Kriminellen, die sich mit gefälschten Audiodateien als LastPass CEO Karim Toubba ausgaben.4

    Während generative KI für viel Begeisterung sorgt, zeigen diese Fälle, wie sie auch von organisierten Cyberkriminellen als Waffe eingesetzt wird, um Angestellte auszutricksen und Millionen zu stehlen. Mitarbeitende können nicht mehr auf das Vertrauen, was sie sehen und hören. Um solche Angriffe zu verhindern, bedarf es ausgefeilte Authentifizierungstechniken. 

1-https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam
2-https://www.theguardian.com/technology/article/2024/may/17/uk-engineering-arup-deepfake-scam-hong-kong-ai-video
3-https://www.ft.com/content/
4-https://www.scmagazine.com/news/lastpass-thwarts-attempt-to-deceive-employee-with-deepfake-audio 

Die in diesem Dokument enthaltenen Informationen sind als allgemeine Informationen zum Risikomanagement gedacht. Sie werden unter der Voraussetzung zur Verfügung gestellt, dass Beazley keine Rechtsdienstleistungen oder -beratung erbringt. Sie sollten nicht als Rechtsberatung ausgelegt werden und sind nicht als Ersatz für eine Beratung durch einen Rechtsanwalt gedacht. Obwohl die in diesem Dokument enthaltenen Informationen mit angemessener Sorgfalt erstellt wurden, übernimmt Beazley keine Verantwortung für etwaige Fehler oder für Verluste, die angeblich auf diese Informationen zurückzuführen sind. BZ CBR 119.