Aktuelles, Branche, Studien - geschrieben von am Mittwoch, April 24, 2024 20:22 - noch keine Kommentare

Finanzkriminalität: BioCatch publiziert ersten Bericht über digitalen Betrug mittels KI

Zwar nutzen Finanzinstitute KI-Werkzeuge zur Cyber-Verteidigung – aber auch KI-gestützte Angriffe nehmen weiter zu

[datensicherheit.de, 24.04.2024] Eine eigene aktuelle Umfrage zeigt laut BioCatch einen „erschreckenden Trend“ auf: Zwar nutzten Finanzinstitute Werkzeuge der Künstlichen Intelligenz (KI) zur Cyber-Verteidigung, aber auch KI-gestützte Angriffe nähmen weiter zu. BioCatch hat nach eigenen Angaben seinen ersten jährlichen Bericht über Betrug und Finanzkriminalität mit KI-Schwerpunkt veröffentlicht. Hierzu seien 600 Experten in elf Ländern auf vier Kontinenten – unter anderem aus den Bereichen Betrugsmanagement, AML (Anti-Money Laundering) und Compliance – befragt worden.

biocatch-umfrage-cyber-betrug-ki

Abbildung: BioCatch

BioCatch: „2024 AI, Fraud, and Financial Crime Survey / AI’s Role in Perpetrating and Fighting Financial Crime“

Künstliche Intelligenz kann jeden erdenklichen Finanz-Betrug optimieren

Der Bericht zeige eine beunruhigende Entwicklung: „Cyber-Kriminelle nutzen KI und können bessere, umfassendere und erfolgreichere Betrugsversuche auf Banken und die Finanzbranche durchführen. Dafür benötigen sie kaum Bankexpertise oder technisches Know-how.“ Fast 70 Prozent gäben an, dass die Angreifer KI geschickter einsetzten als Banken ihrerseits bei der Bekämpfung der Attacken. Ebenso besorgniserregend sei, dass etwa die Hälfte der Befragten mehr Angriffe im letzten Jahr – 2023 – festgestellt hätten oder für 2024 erwarteten.

„Künstliche Intelligenz optimiert jeden erdenklichen Betrug“, warnt daher Tom Peacock, „Director of Global Fraud Intelligence“ bei BioCatch. Er erläutert: „Sie lokalisiert Sprache und Eigennamen perfekt, so dass für jedes Opfer personalisierte Betrugsversuche entstehen – mit Bildern, Videos oder Audio-Inhalten.“ Somit ermögliche KI „grenzenlose Betrügereien“„und das erfordert neue Strategien und Technologien der Finanzinstitute, um Kunden zu schützen“, betont Peacock.

Finanz-Betrugsfälle durch synthetische Identitäten

Überraschend sei besonders ein Ergebnis: „91 Prozent der Befragten geben an, dass ihr Unternehmen bei wichtigen Kunden die Sprachverifizierung überdenkt. Der Grund hierfür ist die Stimmerzeugung durch KI.“ Bei 70 Prozent hätten Finanzinstitute im letzten Jahr die Verwendung synthetischer Identitäten bei der Neukundenakquise identifiziert. Die Federal Reserve (FED) schätzt, „dass bisher eingesetzte Betrugsmodelle bis zu 95 Prozent der synthetischen Identitäten nicht erkennen, die für die Beantragung neuer Konten verwendet werden“. Demnach wachse die Finanzbetrugszahl durch synthetische Identitäten am schnellsten in den USA„und sie kostet Unternehmen jedes Jahr Milliarden von Dollar“.

„Wir dürfen uns nicht mehr nur auf unsere Sinne verlassen, um digitale Identitäten zu überprüfen“, unterstreicht Jonathan Daly, „CMO“ von BioCatch. Das KI-Zeitalter erfordere neue Methoden zur Authentifizierung. „Bei unserer Arbeit haben wir gesehen, dass wir Signale der Verhaltensintention nutzen sollten. Dieser Ansatz hilft Finanzinstituten dabei, Deepfakes und Stimmklone in Echtzeit zu erkennen. Und so lässt sich das hart verdiente Geld der Kunden besser schützen.“

Weitere zentrale Ergebnisse der Umfrage zur Bedrohung der Finanzinstitute:

KI sei eine teure Bedrohung
Mehr als die Hälfte der befragten Banken gäben an, im Jahr 2023 zwischen fünf und 25 Millionen US-Dollar durch KI-gestützte Angriffe verloren zu haben.

Finanzinstitute nutzten ebenfalls KI
Bei drei Viertel der Befragten verwende der Arbeitgeber bereits KI zur Erkennung von Betrug oder Finanzkriminalität. 87 Prozent berichteten, dass die Technologie die Reaktionsgeschwindigkeit auf potenzielle Bedrohungen erhöht habe.

Kommunikation sei essenziell
Mehr als 40 Prozent der Befragten sagten, dass ihr Unternehmen Betrug und Finanzkriminalität in getrennten Abteilungen behandele und diese nicht zusammenarbeiteten. 90 Prozent der Befragten seien der Meinung, dass Finanzinstitute und Regierungsbehörden mehr Informationen austauschen müssten, um Betrug und Finanzkriminalität zu bekämpfen.

KI zur Unterstützung beim Informationsaustausch
Fast jeder Befragte vermute, dass er in den nächsten zwölf Monaten KI einsetzen werde, um Informationen über Hochrisikopersonen („high-risk individuals“) zwischen Banken auszutauschen.

„Heutzutage sind Betrüger organisiert und clever“, so Gadi Mazor, „CEO“ von BioCatch. Er kommentiert: „Sie arbeiten zusammen und tauschen Informationen aus. ,Fraud Fighter’ – einschließlich Banken, Regulierungs- sowie Strafverfolgungsbehörden und Lösungsanbieter wie wir – müssen genauso handeln. Nur so können wir die steigenden Betrugszahlen weltweit wieder umkehren.“

Weitere Informationen zum Thema:

BioCatch
2024 AI, Fraud, and Financial Crime Survey / AI’s Role in Perpetrating and Fighting Financial Crime

THE FEDERAL RESERVE
PAYMENTS FRAUD INSIGHTS OCTOBER 2019 / Detecting Synthetic Identity Fraud in the U.S. Payment System



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung