In Zeiten rasanter technologischer Entwicklungen eröffnen sich nicht nur neue Chancen – auch Betrüger*innen machen sich moderne Technik zunutze. Eine besonders perfide Masche: KI-Betrug am Telefon. Mithilfe künstlicher Intelligenz werden Stimmen nachgeahmt, Gespräche manipuliert und ahnungslose Menschen um ihr Geld gebracht. Das FBI verrät nun, woran man KI-Betrug am Telefon erkennt und wie du dich effektiv davor schützen kannst.
Lesetipp: Unbekannter Geldeingang bei PayPal? Vorsicht vor dieser fiesen Betrugsmasche
FBI warnt vor neuer Betrugsmasche mit KI-Stimmen
In einer aktuellen Mitteilung warnt das FBI vor einer neuen Betrugsmasche, bei der Kriminelle generative KI-Technologien einsetzen. Diese steigern die Glaubwürdigkeit ihrer Täuschungsversuche und erleichtern Betrug in großem Stil. Besonders alarmierend: das sogenannte „Vocal Cloning“. Dabei erstellen Täter*innen täuschend echte Audioclips mit den Stimmen nahestehender Personen, um deren Familienmitglieder emotional unter Druck zu setzen und finanziell auszunehmen.
So funktioniert die Betrugsmasche
Ein typisches Szenario könnte so aussehen, dass die angebliche Tochter ihre Eltern am Telefon darum bittet, aus einem dringenden und wichtigen Grund sofort eine größere Geldsumme bereitzustellen. Das FBI nennt als Beispiel eine fingierte Entführung, die nur durch Zahlung eines Lösegelds beendet werden könne.
Auf diese Weise versuchen die Täter manchmal auch, direkten Zugriff auf die Bankkonten der Opfer zu erhalten, sodass eine persönliche Geldübergabe nicht mehr nötig ist. Um Menschen auf solche Situationen vorzubereiten, in denen sie emotional unter Druck gesetzt und zeitlich gedrängt werden, gibt das FBI klare Handlungsempfehlungen. Diese lauten dabei wie folgt:
- Erstelle mit deiner Familie ein geheimes Wort oder einen geheimen Satz, um die Identität zu bestätigen.
- Achte bei Anrufen genau auf die Wortwahl und den Tonfall der Person.
- Die KI hat noch Schwächen beim Nachahmen von Stimme und Sprachstil.
KI im Einsatz für Betrug: FBI warnt auch vor diesen Maschen
Das FBI warnt vor verschiedenen Betrugsmaschen mit Künstlicher Intelligenz. Neben Telefonbetrug kommen auch KI-generierte Bilder, Videos oder Deepfakes in Videochats zum Einsatz. Damit versuchen Kriminelle, sich als reale Personen auszugeben. Die Sicherheitsbehörde empfiehlt, bei Zweifeln das Gespräch sofort zu beenden. Außerdem sollte man die angeblich kontaktierte Person selbst anrufen und keine sensiblen Daten an Unbekannte weitergeben.