Veröffentlicht inJob

Kriminalexperten warnen: KI-Betrug am Telefon nimmt zu – so schützt du dich!

Betrüger*innen nutzen immer häufiger Künstliche Intelligenz, um an Geld oder sensible Daten zu kommen. Wie du einen KI-Betrug am Telefon erkennst, liest du hier.

Frau mit Mobiltelefon im holografischen Hintergrund
© Getty Images/Qi Yang

Enttarnen von Phishing-Mails // IMTEST

Jeder hat schon einmal eine Phishing-Mail bekommen – und vielleicht nicht direkt erkannt. Immerhin geht es hier um gezielten Betrugsversuch.

In Zeiten rasanter technologischer Entwicklungen eröffnen sich nicht nur neue Chancen – auch Betrüger*innen machen sich moderne Technik zunutze. Eine besonders perfide Masche: KI-Betrug am Telefon. Mithilfe künstlicher Intelligenz werden Stimmen nachgeahmt, Gespräche manipuliert und ahnungslose Menschen um ihr Geld gebracht. Das FBI verrät nun, woran man KI-Betrug am Telefon erkennt und wie du dich effektiv davor schützen kannst.

Lesetipp: Unbekannter Geldeingang bei PayPal? Vorsicht vor dieser fiesen Betrugsmasche

FBI warnt vor neuer Betrugsmasche mit KI-Stimmen

In einer aktuellen Mitteilung warnt das FBI vor einer neuen Betrugsmasche, bei der Kriminelle generative KI-Technologien einsetzen. Diese steigern die Glaubwürdigkeit ihrer Täuschungsversuche und erleichtern Betrug in großem Stil. Besonders alarmierend: das sogenannte „Vocal Cloning“. Dabei erstellen Täter*innen täuschend echte Audioclips mit den Stimmen nahestehender Personen, um deren Familienmitglieder emotional unter Druck zu setzen und finanziell auszunehmen.

So funktioniert die Betrugsmasche

Ein typisches Szenario könnte so aussehen, dass die angebliche Tochter ihre Eltern am Telefon darum bittet, aus einem dringenden und wichtigen Grund sofort eine größere Geldsumme bereitzustellen. Das FBI nennt als Beispiel eine fingierte Entführung, die nur durch Zahlung eines Lösegelds beendet werden könne.

Auf diese Weise versuchen die Täter manchmal auch, direkten Zugriff auf die Bankkonten der Opfer zu erhalten, sodass eine persönliche Geldübergabe nicht mehr nötig ist. Um Menschen auf solche Situationen vorzubereiten, in denen sie emotional unter Druck gesetzt und zeitlich gedrängt werden, gibt das FBI klare Handlungsempfehlungen. Diese lauten dabei wie folgt:

  • Erstelle mit deiner Familie ein geheimes Wort oder einen geheimen Satz, um die Identität zu bestätigen.
  • Achte bei Anrufen genau auf die Wortwahl und den Tonfall der Person.
  • Die KI hat noch Schwächen beim Nachahmen von Stimme und Sprachstil.

KI im Einsatz für Betrug: FBI warnt auch vor diesen Maschen 

Das FBI warnt vor verschiedenen Betrugsmaschen mit Künstlicher Intelligenz. Neben Telefonbetrug kommen auch KI-generierte Bilder, Videos oder Deepfakes in Videochats zum Einsatz. Damit versuchen Kriminelle, sich als reale Personen auszugeben. Die Sicherheitsbehörde empfiehlt, bei Zweifeln das Gespräch sofort zu beenden. Außerdem sollte man die angeblich kontaktierte Person selbst anrufen und keine sensiblen Daten an Unbekannte weitergeben.