Aktuelles, Branche - geschrieben von am Freitag, Februar 17, 2023 19:12 - noch keine Kommentare

Betrug mittels KI: Chatbots und Text-to-Speech bergen neben Vorteilen auch potenzielle Gefahren

Auf dem Gebiet der KI hat sich in den letzten Monaten viel getan – so sorgt derzeit vor allem ChatGPT für Aufsehen

[datensicherheit.de, 17.02.2023] Auf dem Gebiet der Künstlichen Intelligenz (KI) hat sich in den letzten Monaten offensichtlich viel getan – so sorgt derzeit vor allem der seit November 2022 verfügbare sogenannte Chatbot „ChatGPT“ von OpenAI für Aufsehen. Dieses textbasierte Dialogsystem, basierend auf Maschinellem Lernen, soll Fragen in natürlicher Sprache beantworten. „ChatGPT“ verspricht demnach in vielen Bereichen Vorteile – etwa für automatisierte Kunden-Unterstützung, um Fragen von Endnutzern schnell und effizient zu beantworten, schnelle Informationen sowie die vereinfachte Weiterentwicklung von Prototypen zu Konversationsanwendungen.

biocatch-wiebe-fokma

Foto: BioCatch

Wiebe Fokma warnt: Cyber-Kriminelle könnten KI für Phishing- und Social-Engineering-Kampagnen ausnutzen!

KI-Entwickler sind sich bewusst, dass ihre Modelle nicht nur Vorteile bieten…

Im Januar 2023 hat Microsoft nun auch mit „Vall-E“ seine neue KI vorgestellt: Dieses Sprach-Synthesemodell soll menschliche Stimmen imitieren können. „Dafür reicht eine Aufnahme der Originalstimme von nur drei Sekunden“, berichtet Wiebe Fokma, „Director Global Advisory“ bei BioCatch, in seiner aktuellen Stellungnahme. Die KI simuliere die menschliche Stimme sehr genau und könne sogar emotionale Betonungen des Sprechers nachahmen.

Die Entwickler beider Systeme seien sich allerdings bewusst, „dass ihre KI-Modelle nicht nur Vorteile bieten“. Mit der zunehmenden Beliebtheit solcher Programme steige auch das Betrugspotenzial: So könnten insbesondere Chatbots dazu missbraucht werden, Malware-Angriffe zu starten, Phishing-Versuche weiter zu perfektionieren oder Identitäten zu stehlen. „Die Möglichkeiten sind vielfältig“, warnt Fokma.

KI als Booster für Attacken per Phishing und Social Engineering

Er führt aus: „Welche Betrugsszenarien durch den Einsatz von KI-Modellen zukünftig möglich sind, hat BioCatch analysiert.“ „ChatGPT“ z.B. nutze die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). „Das könnten Cyber-Kriminelle für Phishing- und Social-Engineering-Kampagnen ausnutzen.“ Es ließen sich beispielsweise E-Mail-Konversationen authentisch nachstellen, ohne dass Grammatik- oder Rechtschreibfehler erkennbar seien. Dabei sorge ein natürlicher Sprachfluss für Vertrauen bei den potenziellen Opfern: „Der vermeintliche Bankmitarbeiter, der den Kunden per E-Mail auffordert, seine Kontodaten zur Verifizierung anzugeben, wirkt durch die natürliche Sprache authentisch.“ Auf diese Weise könnten Betrüger problemlos Daten abgreifen oder komplette Konten übernehmen.

Für Banken seien solche Betrugsformen schwer zu erkennen, weil es sich bei den geschilderten Fällen um „echte“ Kunden handele, welche dann die Überweisung auslösen. Aber nicht nur die vielfältigen Betrugsszenarien würden durch den Einsatz von KI für Banken und Finanzinstitute zunehmend zum Problem. Um sich vor solchen Risiken zu schützen, müssten Unternehmen über solide Sicherheitsmaßnahmen verfügen. Fokma erläutert: „Dazu gehören vor allem regelmäßige Security-Updates sowie eine Multi-Faktor-Authentifizierung.“ Darüber hinaus sollten sie zusätzliche Maßnahmen ergreifen, um ihre Chatbots vor böswilligen Akteuren zu schützen.

Weitere Herausforderung: Mithilfe KI-gestützter Chatbots können Geldwäscher Gespräche generieren

Auch die Bekämpfung der Geldwäsche stelle eine Herausforderung dar und sei oft mit hohen Kosten verbunden. „Hier bleibt die erste Überweisung meist unentdeckt. Entweder wird sie vom Überwachungssystem übersehen, oder der ,Kunde’ beziehungsweise der AML-Analyst (Anti-Money Laundering) bestätigt die Transaktion als unverdächtig.“ Denn mithilfe von KI-gestützten Chatbots wie „ChatGPT“ könnten Geldwäscher Gespräche generieren, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand hätten. „In Wirklichkeit dienen sie jedoch dazu, Geldtransfers zu verschleiern“, so Fokma. Dadurch werde es für Finanzinstitute immer schwieriger, die gängigen Muster von Geldwäscheaktivitäten zu erkennen.

Ein weiteres Problem sei die Rekrutierung ahnungsloser Personen zur Geldwäsche. „Viele der Konten werden von arglosen Personen eröffnet, die glauben, einen ertragreichen Nebenjob gefunden zu haben. Dabei wissen die Betroffenen oft nicht, dass sie als Geldwäscher agieren und ihr Konto für kriminelle Aktivitäten nutzen, oder es dafür zur Verfügung stellen.“ Denn die Betrüger gäben sich als legitime Unternehmen aus und versprächen schnelles Geld. Fokma betont: „Und mit ,ChatGPT’ lässt sich die vermeintliche Stellenanzeige und der nachfolgende Rekrutierungsprozess noch überzeugender gestalten.“

Verhaltensbiometrie soll Abhilfe gegen KI-gestützten Betrug bieten

Verhaltensbiometrie könne eine wichtige Rolle beim Aufdecken von Betrugsversuchen und Geldwäsche spielen. Fokma erklärt: „Durch die Analyse des Benutzerverhaltens, etwa der Tippgeschwindigkeit, den Tastenanschlägen und Mausbewegungen kann das normale Verhalten eines Benutzers festgelegt werden.“

Anhand davon könne die Software erkennen, ob es sich tatsächlich um den angemeldeten Benutzer handelt, oder um einen Betrüger. Auch viele andere Betrugsversuche ließen sich so erkennen. Auf diese Weise könnten auch Konten ausfindig gemacht werden, die zu einem späteren Zeitpunkt für Geldwäsche genutzt werden sollen.

Weitere Informationen zum Thema:

datensicherheit.de, 09.02.2023
Am Valentinstag mit KI auf Partnersuche: International würde jeder dritte Mann Liebesbriefe mit ChatGPT erstellen / In Deutschland im Durchschnitt potenziell jeder fünfte Mann ein KI-Nutzer für das Verfassen von Liebesbriefen

datensicherheit.de, 08.02.2023
Zum SAFER INTERNET DAY 2023: LfDI Rheinland-Pfalz nimmt Stellung zu KI und ChatGPT / ChatGPT nur ein Beispiel, wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden

datensicherheit.de, 13.02.2023
Liebesbetrug am Valentinstag: Auch ein Festtag für Cyber-Kriminelle / Gerade am Valentinstag viele alleinstehende Menschen im Internet auf der Suche nach Kontakt



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung