OpenAI – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Mon, 10 Nov 2025 14:51:45 +0000 de hourly 1 ChatGPT: 7 kritische Sicherheitslücken als Wegbereiter für Datendiebstahl und Hijacking https://www.datensicherheit.de/chatgpt-7-sicherheitsluecken-wegbereiter-datendiebstahl-hijacking https://www.datensicherheit.de/chatgpt-7-sicherheitsluecken-wegbereiter-datendiebstahl-hijacking#respond Mon, 10 Nov 2025 23:51:19 +0000 https://www.datensicherheit.de/?p=50885 Untersuchungen von Tenable decken versteckte KI-Schwachstellen auf, welche Datenexfiltration, die Aufhebung von Sicherheitsmaßnahmen und anhaltende Kompromittierungen innerhalb von „ChatGPT“ ermöglichen

[datensicherheit.de, 11.11.2025] Tenable hat nach eigenen Angaben bei Tests von OpenAI’s „ChatGPT-4o“ sieben Schwachstellen und Angriffstechniken aufgedeckt, von denen einige später auch in „ChatGPT-5“ nachgewiesen worden seien. Diese kollektiv als „HackedGPT“ bezeichneten Schwachstellen setzen Benutzer demnach Datenschutzrisiken aus, indem sie integrierte Sicherheitsmechanismen umgingen. Obwohl OpenAI einige der identifizierten Probleme behoben habe, seien andere zum Zeitpunkt der Veröffentlichung noch nicht gelöst worden, so dass bestimmte Kompromittierungspfade weiterhin bestünden. Im Falle einer Ausnutzung könnten sie es Angreifern ermöglichen, unbemerkt persönliche Daten zu stehlen, einschließlich gespeicherter Chats und Erinnerungen.

tenable-hackedgpt-vulnerabilities-2025

Abbildung: Tenable

Tenable warnt vor „HackedGPT“-Schwachstellen; Diese setzen Benutzer Datenschutzrisiken aus, indem sie integrierte Sicherheitsmechanismen umgehen

Web-Browsing- und Speicherfunktionen von „ChatGPT“ betroffen

Diese Schwachstellen offenbarten eine neue Art von KI-Angriffen – eine „Indirect Prompt Injection“ – bei der versteckte Anweisungen in externen Websites oder Kommentaren das Modell dazu veranlassen könnten, unbefugte Aktionen auszuführen.

  • Betroffen seien die Web-Browsing- und Speicherfunktionen von „ChatGPT“, welche Live-Internetdaten verarbeiteten und Benutzerinformationen speicherten und somit Möglichkeiten für Manipulationen und Datenlecks eröffneten.

Tenable Research habe gezeigt, dass diese Angriffe unbemerkt auf zwei Arten erfolgen könnten: „0-Klick“-Angriffe, bei denen allein das Stellen einer Frage an „ChatGPT“ die Kompromittierung auslöse, und „1-Klick“-Angriffe, bei denen das Anklicken eines bösartigen Links versteckte Befehle aktiviere.

„Persistent Memory Injection“ – schädliche Befehle im Langzeitspeicher von „ChatGPT“ abgelegt

Noch besorgniserregender sei eine Angriffstechnik namens „Persistent Memory Injection“, bei der schädliche Befehle im Langzeitspeicher von „ChatGPT“ gespeichert würden und auch dann noch aktiv blieben, wenn der Nutzer die App schließt. Auf diese Weise könnten Angreifer dauerhafte Bedrohungen einschleusen, welche private Informationen in künftigen Sitzungen offenlegen könnten, bis sie entfernt werden.

  • Zusammen genommen zeigten diese Schwachstellen, wie Angreifer die Sicherheitsvorkehrungen von OpenAI umgehen und auf die privaten Verlaufsdaten der Nutzer zugreifen könnten.

„,HackedGPT’ deckt eine grundlegende Unzulänglichkeit in der Art und Weise auf, wie große Sprachmodelle beurteilen, welchen Informationen sie vertrauen können“, kommentiert Moshe Bernstein, „Senior Research Engineer“ bei Tenable. Einzeln betrachtet schienen diese Sicherheitslücken geringfügig zu sein – in ihrer Gesamtheit bildeten sie jedoch eine komplette Angriffskette, von Einschleusung und Umgehung bis hin zu Datendiebstahl und Persistenz. Dies verdeutliche, dass KI-Systeme nicht nur potenzielle Angriffsziele darstellten, sondern dass sie auch zu Angriffstools umfunktioniert werden könnten, um unbemerkt Informationen aus alltäglichen Chats oder beim Surfen abzugreifen.

„HackedGPT“ – 7 von Tenable Research identifizierte Schwachstellen und Angriffstechniken:

  1. „Indirect Prompt Injection“ über vertrauenswürdige Websites
    Angreifer würden Befehle in legitim erscheinenden Online-Inhalten wie Blog-Kommentaren oder öffentlichen Posts verbergen. Beim Durchsuchen dieser Inhalte befolge „ChatGPT“ unwissentlich diese versteckten Anweisungen. Kurz gesagt: „,ChatGPT’ kann dazu gebracht werden, die Anweisungen eines Angreifers auszuführen – einfach dadurch, dass es eine kompromittierte Seite liest.“
  2. „Indirect Prompt Injection“ ohne Klick im Suchkontext
    Nutzer müssten dabei weder klicken noch irgendetwas Besonderes tun, um kompromittiert zu werden. „Wenn ,ChatGPT’ im Internet nach Antworten sucht, kann es auf eine Seite mit verstecktem Schadcode stoßen.“ Einfach nur eine Frage zu stellen, könnte dazu führen, dass das Modell solche Anweisungen befolge und private Daten preisgebe – was Forscher als „Single-Prompt-Kompromittierung” bezeichneten.
  3. „Prompt Injection“ mittels „1-Klick“
    Ein einziger Klick könne hierbei einen Angriff auslösen. „Versteckte Befehle, die in scheinbar harmlosen Links eingebettet sind, wie beispielsweise ,https://chatgpt.com/?q={Prompt}‘, können dazu führen, dass ,ChatGPT’ bösartige Aktionen ausführt, ohne sich dessen bewusst zu sein. Ein Klick genügt, damit ein Angreifer die Kontrolle über Ihren Chat übernehmen kann.“
  4. Umgehung von Sicherheitsmechanismen
    Normalerweise überprüfe „ChatGPT“ Links und blockiere unsichere Websites. Angreifer könnten dies umgehen, indem sie vertrauenswürdige Wrapper-URLs verwenden (z.B. „bing.com/ck/a?…“ von Bing), welche das tatsächliche Ziel verbergen. „ChatGPT“ vertraue dem Wrapper, zeige den scheinbar sicheren Link an und könne zu einer bösartigen Website weitergeleitet werden.
  5. „Conversation Injection“
    „ChatGPT“ nutze zwei Systeme – „SearchGPT“ für die Suche und „ChatGPT“ für Konversationen. Angreifer könnten sich „SearchGPT“ zunutze machen, um versteckte Anweisungen einzufügen, „die ,ChatGPT’ später im Rahmen der Konversation ausliest“. Tatsächlich führe die KI letztendlich eine „Prompt Injection“ bei sich selbst durch, indem sie Befehle ausführt, die der Benutzer nie geschrieben hat.
  6. Verbergen bösartiger Inhalte
    Ein Programmierfehler in der Formatierung ermögliche es Angreifern, schädliche Anweisungen in Code oder Markdown-Text zu verstecken. Dem Nutzer werde eine saubere Nachricht angezeigt, aber „ChatGPT“ lese dennoch den versteckten Inhalt und führe ihn aus.
  7. „Persistent Memory Injection“
    Die Speicherfunktion von „ChatGPT“ zeichne vergangene Interaktionen auf. Angreifer könnten böswillige Anweisungen in diesem Langzeitspeicher hinterlegen, wodurch das Modell diese Befehle über mehrere Sitzungen hinweg wiederholt ausführe und kontinuierlich private Daten preisgebe, bis der Speicher geleert wird.

Schwachstellen könnten noch weiterhin in „ChatGPT-5“ aktiv sein

Hunderte Millionen Menschen nutzten „ChatGPT“ täglich für geschäftliche Zwecke, Recherchen und persönliche Kommunikation. Eine Ausnutzung dieser Schwachstellen könnte zu Folgendem führen:

  • Einfügung versteckter Befehle in Konversationen oder Langzeitspeicher
  • Abgriff sensible Daten aus Chat-Verläufen oder verbundenen Diensten wie „Google Drive“ oder „Gmail“
  • Ausspähung von Informationen über Browser- und Web-Integrationen
  • Manipulation von Antworten, um Fehlinformationen zu verbreiten oder Nutzer zu beeinflussen

Tenable Research habe seine Untersuchung nach den „Grundsätzen einer verantwortungsvollen Offenlegung“ durchgeführt. OpenAI habe einige der identifizierten Schwachstellen behoben, aber verschiedene seien weiterhin in „ChatGPT-5“ aktiv oder zum Zeitpunkt der Veröffentlichung noch nicht behoben gewesen, so dass bestimmte Kompromittierungspfade offen blieben.

KI-Tools wie „ChatGPT“ können manipuliert werden können – entsprechende Kontrollmechanismen zur Abwehr nötig

Tenable empfiehlt Anbietern von KI-Lösungen, ihre Abwehrmaßnahmen gegen „Prompt Injection“ zu verstärken, „indem sie sicherstellen, dass Sicherheitsmechanismen wie ,url_safe’ wie vorgesehen funktionieren, und indem sie Browsing-, Such- und Speicherfunktionen isolieren, um kontextübergreifende Angriffe zu verhindern“.

Tenable empfiehlt Sicherheitsexperten Folgendes:

  • „Behandeln Sie KI-Tools als aktive Angriffsflächen und nicht als passive Assistenten!“
  • „Überprüfen und überwachen Sie KI-Integrationen auf mögliche Manipulationen oder Datenlecks!“
  • „Untersuchen Sie ungewöhnliche Anfragen oder Ausgaben, die auf ,Prompt Injection’ hindeuten könnten!“
  • „Testen und verstärken Sie die Abwehrmaßnahmen gegen Injektions- und Exfiltrationspfade!“
  • „Führen Sie Kontrollmechanismen für ,Governance’ und Datenklassifizierung im Zusammenhang mit KI-Nutzung ein!“

„Bei dieser Untersuchung geht es nicht nur um die Aufdeckung von Schwachstellen, sondern darum, die Art und Weise der Absicherung von KI zu verändern“, so Bernstein. Abschließend gibt er zu bedenken: „Sowohl Einzelpersonen als auch Unternehmen müssen davon ausgehen, dass KI-Tools manipuliert werden können, und entsprechende Kontrollmechanismen entwickeln. Das bedeutet ,Governance’, Datensicherheit und ständiges Testen, um sicherzustellen, dass diese Systeme für uns arbeiten und nicht gegen uns.“

Weitere Informationen zum Thema:

tenable
Your exposure ends here / We are dedicated to isolating and eradicating the exposures that hold organizations back

tenable, blog / AI Security, Moshe Bernstein & Liv Matan Liv Matan, 05.11.2025
HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage

tenable
Moshe Bernstein – Senior Security Researcher, Tenable

OpenAI, 07.08.2025
Entdecke GPT-5 / Unser bisher schlauestes, schnellstes und nützlichstes Modell – mit eingebautem Denkvermögen, das Expertenwissen für alle zugänglich macht

OpenAI, 13.05.2024
Hallo GPT-4o / GPT‑4o ist da, unser neues Flagship-Modell mit Reasoning für Audio, visuelle Eingaben und Text in Echtzeit

datensicherheit.de, 26.07.2023
Code-Empfehlungen: Gefahr durch ChatGPT / Voyager18-Forschungsteam von Vulcan Cyber hat neue, auf ChatGPT basierende Angriffstechnik entdeckt

datensicherheit.de, 20.04.2023
ChatGPT-Hype lässt Cyber-Kriminelle kreativ werden / Palo Alto Networks hat zahlreiche Fallen und Betrugsversuche im ChatGPT-Kontext entdeckt

datensicherheit.de, 20.03.2023
ChatGPT4: Sicherheitsanalyse zeigt Szenarien für beschleunigte Cyber-Kriminalität / Die Sicherheitsforscher von Check Point mahnen, dass trotz der Sicherheitsvorkehrungen einige Beschränkungen leicht umgangen werden können / Hacker können ihre Ziele ohne große Hindernisse erreichen

datensicherheit.de, 23.02.2023
ChatGPT: Hacker nutzen Fake-Apps zur Verbreitung von Malware / Bedrohungsakteure versprechen uneingeschränkten, kostenlosen Zugang zum Premium-ChatGPT

datensicherheit.de, 22.02.2023
ChatGPT: Malware-Kampagne missbraucht Hype / Malware ermöglicht Diebstahl von Login-Daten und persönlichen Informationen

]]>
https://www.datensicherheit.de/chatgpt-7-sicherheitsluecken-wegbereiter-datendiebstahl-hijacking/feed 0
SweetSpecter hatte OpenAI im Visier https://www.datensicherheit.de/sweetspecter-openai-visier https://www.datensicherheit.de/sweetspecter-openai-visier#respond Tue, 05 Nov 2024 18:28:57 +0000 https://www.datensicherheit.de/?p=45585 2023 hatte der Bedrohungsakteur „SweetSpecter“ erstmals von sich reden gemacht

[datensicherheit.de, 05.11.2024] 2023 habe der vermutlich in der Volksrepublik China ansässige Threatactor „SweetSpecter“ erstmals von sich reden gemacht. Dr. Martin J. Krämer, „Security Awareness Advocate“ bei KnowBe4, berichtet in seiner aktuellen Stellungnahme: „Damals zielten seine Cyber-Angriffe auf politische Einrichtungen im Nahen Osten, in Afrika und Asien. Nun hat er sich ein neues Angriffsziel gesucht – das bekannte US-amerikanische KI-Unternehmen OpenAI.“ Dieses habe vor Kurzem bekanntgegeben, dass einige seiner Mitarbeiter Ziel einer Spear-Phishing-Angriffskampagne geworden seien. Zu Schäden sei es nicht gekommen. Die Sicherheitsteams des Unternehmens hätten den Angriff rechtzeitig erkannt, die implementierte Sicherheitsarchitektur habe gehalten.

knowbe4-martin-kraemer

Foto: KnowBe4

Dr. Martin J. Krämer kritisiert: Viele Unternehmen schrecken immer noch vor Investitionen in regelmäßige Sicherheitsschulungen, -trainings und -tests für ihre Belegschaft zurück…

„Spear Phishing“-Angriff: „SweetSpecter“ verschickte E-Mails mit bösartigen Anhängen an OpenAI-Mitarbeiter

Für seinen Spear-Phishing-Angriff habe „SweetSpecter“ E-Mails mit bösartigen Anhängen an Mitarbeiter von OpenAI versandt – sowohl an die privaten als auch an die Mitarbeiter-E-Mail-Konten. „SweetSpecter“ habe sich dabei als „ChatGPT“-Nutzer ausgegeben, welcher Support bei der Aufspürung und Behebung einiger „ChatGPT-Fehler“ benötig habe.

„Klickten die Mitarbeiter auf den Anhang der E-Mail, der den Namen ‚some problems.zip‘ trug, öffneten sie eine ,DOCX’-Datei, die verschiedene Fehler- und Servicemeldungen von ,ChatGPT’ enthielt. Was sie nicht mitbekamen: Gleichzeitig begann sich im Hintergrund die Malware ,SugarGh0st RAT’ zu entschlüsseln, zu installieren und zu starten.“ Diese sollte „SweetSpecter“ in die Lage versetzen, die Kontrolle über den kompromittierten Computer zu erhalten, um zum Beispiel Screenshots zu erstellen und Daten zu kompromittieren oder zu entwenden.

Bei Analyse auf verdächtige „ChatGPT“-Konten gestoßen, welche vermutlich von „SweetSpecter“ missbraucht wurden

OpenAI habe indes rasch und erfolgreich auf diese Kampagne reagieren können. „Im Mai hatten seine Sicherheitsteams einen Tipp einer ungenannten vertrauenswürdigen Quelle erhalten. Umgehend setzten sie sich mit Mitarbeitern, von denen angenommen wurde, dass sie Ziel der Angriffs-Kampagne geworden seien, in Kontakt.“ Rasch habe geklärt werden können, dass die E-Mail-Sicherheitskontrollen des Unternehmens gehalten hätten. Keine der bösartigen E-Mails sei bis zu einem Mitarbeiter-Konto im Unternehmensnetzwerk vorgedrungen.

„Dennoch begannen die Sicherheitsteams den Angriff und seine Infrastruktur eingehend zu analysieren. Dabei kam auch ,ChatGPT’ zum Einsatz – um Interaktionen von feindlichen Konten zu analysieren, zu kategorisieren, zu übersetzen und zusammenzufassen.“ Interessanterweise seien sie hierbei auch auf eine Reihe verdächtiger „ChatGPT“-Konten gestoßen, welche wahrscheinlich von „SweetSpecter“ genutzt worden seien – um Antworten auf technische Fragen zu erhalten, um Scripting- und Schwachstellenforschungsaufgaben zu erledigen. „Sie alle wurden vorsichtshalber von den OpenAI-Sicherheitsteams geschlossen.“

Besser noch wäre es gewesen, wenn OpenAI-Mitarbeiter das Sicherheitsteam selbst über verdächtige Auswirkungen der „SweetSpecter“-Attacke informiert hätten

Das Beispiel OpenAI zeigt laut Dr. Krämer, „wie wichtig es nach wie vor ist, ein möglichst engmaschiges Netz aus menschlichen Informanten zu unterhalten, die verdächtige Aktivitäten melden“. Nur durch das kontinuierliche Teilen bedrohungsrelevanter Erkenntnisse, nur durch kollektive Zusammenarbeit könne und werde es gelingen, die Risikolage zu verbessern und KI-Plattformen wie „ChatGPT“ auch in Zukunft sicher zu halten. „OpenAI hatte Glück. Eine ungenannte Quelle informierte das Unternehmen über den Angriff auf seine Mitarbeiter. Seine Sicherheitsteams konnten dann erfolgreich die erforderlichen Gegenmaßnahmen einleiten, resümiert Dr. Krämer.

Besser wäre es aber gewesen, wenn die eigenen Mitarbeiter die Sicherheitsteams informiert hätten – auch über verdächtige Aktivitäten auf ihren privaten E-Mail-Accounts. Vielerorts mangele es hierbei immer noch am erforderlichen Sicherheitsbewusstsein – an einer stabilen und effektiven Sicherheitskultur. Viele Unternehmen schreckten immer noch vor Investitionen in regelmäßige Sicherheitsschulungen, -trainings und -tests für ihre Belegschaft zurück – und verbauten sich damit die Chance, dass ihre Mitarbeiter Phishing-, Spear-Phishing und Social-Engineering-Angriffe rechtzeitig erkennen und ihre Sicherheitsteams dabei unterstützen könnten, diese erfolgreich abzuwehren.

Weitere Informationen zum Thema:

OpenAI, Oktober 2024
Influence and cyber operations: an update

]]>
https://www.datensicherheit.de/sweetspecter-openai-visier/feed 0
Monetarisierung von SearchGPT könnte freies Internet bedrohen https://www.datensicherheit.de/monetarisierung-searchgpt-bedrohung-freiheit-internet https://www.datensicherheit.de/monetarisierung-searchgpt-bedrohung-freiheit-internet#respond Wed, 31 Jul 2024 08:00:54 +0000 https://www.datensicherheit.de/?p=45148 Timur Göreci plädiert vehement für das freie Internet

[datensicherheit.de, 31.07.2024] Am 25. Juli 2024 hat OpenAI „SearchGPT“ angekündigt – dies könnte zumindest inoffiziell als eine Herausforderung an Google verstanden werden. Timur Göreci, „Chief Revenue Officer“ (CRO) bei der Orderfox Schweiz AG, nach eigenen Angaben selbst mit der KI-Entwickler befasst, geht in seiner aktuellen Stellungnahme auf diese Ankündigung kritisch ein: Demnach sollte „SearchGPT“ die Integrität der ursprünglichen Internet-Inhalte erhalten und gleichzeitig den Nutzern einen direkten Zugang zu hochwertigen Informationen zu bieten.

Gewährleistung der Genauigkeit und Unparteilichkeit der Antworten kritischer Aspekt der Internet-Recherche

„Nachdem Googles KI noch im Mai Nutzern empfohlen hatte, Steine zu essen oder Käse an Pizzen mit Kleber zu befestigen, könnte ,SearchGPT’ durch die Bereitstellung direkter Antworten innerhalb der Suchoberfläche die Werbe-Einnahmen für die Ersteller von Inhalten verringern, da Nutzer seltener auf Quell-Links klicken“, so Göreci.

Göreci sieht in „SearchGPT“ sogar einen „Angriff auf das freie, aggregierte Internet“ und führt hierzu aus: „Die Gewährleistung der Genauigkeit und Unparteilichkeit der Antworten von ,SearchGPT’ ist ein kritischer Aspekt. KI-Modelle können unbeabsichtigt die in ihren Trainingsdaten vorhandenen Verzerrungen aufrechterhalten.“

OpenAI müsse daher „robuste Mechanismen implementieren“, um diese Verzerrungen zu erkennen und abzuschwächen und eine faire und ausgewogene Informationsbeschaffung zu gewährleisten. Dabei stelle sich eine Frage: „Werden uns durch ,SearchGPT’ wirklich korrumpierte Daten und Antworten geliefert oder sehen wir nur die Top-3-Beispiele und es folgt ein Pay-to-Win-Modell?“

Es gilt, echte Antworten aus dem aggregierten Internet geliefert zu bekommen

Der Erfolg von „SearchGPT“ werde davon abhängen, „wie effektiv es die Herausforderungen der Monetarisierung, des Datenschutzes und der Genauigkeit bewältigen kann“.

Ob die fortschreitende Entwicklung der KI und ihre Integration in die Websuche zu einer effizienteren, benutzerfreundlicheren und transparenteren Art des Informationszugangs führen wird, bleibe angesichts eines Blicks auf die aktuellen Kooperationen von OpenAi fraglich: „Aktuell sind 15 Partnerschaften von OpenAi mit Verlagsgesellschaften bekannt, darunter Axel Springer, Le Monde, AP (Associated Press), Vox Media und News Corp.“

Göreci plädiert vehement für das freie Internet: „Wer mehr als nur eine kuratierte Version einer Antwort erhalten möchte, muss sich weiterhin selbst bemühen. Mit unserem KI-Agenten ,Gieni’ haben wir uns verpflichtet, echte Antworten aus dem aggregierten Internet zu liefern.“

Weitere Informationen zum Thema:

openai.com, 25.07.2024
SearchGPT Prototype / We’re testing SearchGPT, a temporary prototype of new AI search features that give you fast and timely answers with clear and relevant sources

Industrie.de, mav, 25.03.2024
KI-Chatbot für B2B-Anwender startet in die Open Beta / „Gieni“ soll die Fertigungsindustrie revolutionieren

]]>
https://www.datensicherheit.de/monetarisierung-searchgpt-bedrohung-freiheit-internet/feed 0
KI – mehr als ein Hype https://www.datensicherheit.de/ki-mehr-als-ein-hype https://www.datensicherheit.de/ki-mehr-als-ein-hype#respond Mon, 27 Nov 2023 10:43:12 +0000 https://www.datensicherheit.de/?p=43796 Warum Unternehmen die Entwicklungen nicht verpassen sollten

Ein Kommentar von unserem Gastautor Maximilian Modl, CEO bei Brevo Deutschland,

[datensicherheit.de, 27.11.2023] OpenAI hat schon mit der Veröffentlichung von ChatGPT vor gut einem Jahr einen wahren KI-Hype ausgelöst. Aber erst kürzlich hat das Unternehmen bei seiner ersten Entwicklerkonferenz das wahre Potenzial seiner Technologie aufgezeigt: Ein GPT-Ökosystem, dessen Anwendungen miteinander verknüpft sind und aufeinander aufbauen. Künstliche Intelligenz wird unser Leben mindestens so stark verändern wie das Internet, ist Maximilian Modl, CEO bei Brevo Deutschland, überzeugt. Unternehmen sollten sich diese Chance nicht entgehen lassen, damit sie auch in Zukunft erfolgreich bleiben.

Maximilian Modl, CEO bei Brevo Deutschland

Maximilian Modl, CEO bei Brevo Deutschland, Bild: Brevo Deutschland

Jedes Jahr tauchen neue Technologien auf, die urplötzlich in aller Munde sind und vermeintlich das Potenzial haben, die Welt grundlegend zu verändern. Krypto, Blockchains oder das Metaverse sind nur einige Beispiele der jüngsten Vergangenheit. Aber konkrete Ergebnisse lassen weiter auf sich warten. Und auch mit Blick auf KI gibt es einige Kritiker, die den aktuellen Buzz übertrieben finden.

Erst am Anfang der KI-Revolution

Aber – bei allen Fehlern und Halluzinationen, die natürlich nicht wegzudiskutieren sind – beeindrucken die Fähigkeiten von ChatGPT und anderen KI-Tools doch. Und das, obwohl wir noch ganz am Anfang dieser KI-Revolution stehen. Wir können uns wahrscheinlich noch nicht einmal vorstellen, in welchem Maße wir uns in fünf oder zehn Jahren auf KI verlassen werden. Und zwar in (nahezu) allen Lebens- und natürlich auch Arbeitsbereichen.

Microsoft und Google haben KI-Funktionen schnell integriert

Es ist kein Wunder, dass Unternehmen wie Microsoft und Google KI-Funktionen sehr schnell in ihre Arbeitssoftware integriert haben. Nicht nur profitieren potenziell Milliarden Nutzer weltweit davon, es gibt auch bei der Arbeit viele Aufgaben und Abläufe, die dank KI deutlich effizienter und effektiver erledigt werden können. Im Marketing ist beispielsweise Hyperpersonalisierung schon lange ein Buzzword – und jedes Jahr wird ihr aufs Neue der endgültige Durchbruch vorhergesagt, der dann aber immer und immer wieder ausbleibt. Das Problem ist ein ganz einfaches: Hyperpersonalisierung ist mit extrem hohem manuellem Aufwand verbunden, der im Grunde von Marketing-Abteilungen ressourcentechnisch gar nicht zu leisten ist.

Natürlich verfügen Unternehmen in der Regel schon über die Daten, mit denen sie ihre Kunden  theoretisch auf persönlicher Ebene basierend auf ihren Interessen, Bedürfnissen, besonderen Vorkommnissen wie Geburtstagen und getätigten – oder auch nicht getätigten – Käufe ansprechen können. Aber das wird zu komplex. Man müsste unendlich viele Kampagnenszenarien und Workflows definieren, um jede Kundin, jeden Kunden individuell abzudecken. Diese Ressourcen haben Marketing-Abteilungen nicht und irgendwann verliert man auch einfach den Überblick. An dieser Stelle kann aber KI ansetzen – vorausgesetzt die Unternehmen sind bereit sich auf die Datenwelt einzulassen. KI funktioniert am besten, wenn sie mit scharfen und konsolidierten Daten arbeitet. Dann kann sie vorhandene Datenmengen analysieren, Mustern und Zielgruppen auf granularer Ebene erkennen und entsprechende Szenarien für die Kundenansprache definieren. Der Mensch muss das Ganze dann nur noch auf der Metaebene überblicken und steuern. Allerdings kämpfen derzeit viele Unternehmen damit, solche Daten effektiv zu sammeln und zu organisieren. KI hat zwar das Potenzial, die Branche zu revolutionieren, setzt aber voraus, dass Unternehmen sich die Mühe machen und in die effektive Verwaltung ihrer Daten investieren. Ohne eine solide Datengrundlage bleibt die KI eher ein Wunschtraum als eine praktische Realität.

Enorme Chancen

Die Chancen, die sich Unternehmen allein in diesem Beispiel bieten, sind riesig. Was nicht heißt, dass sie jetzt auf Biegen und Brechen KI in alle Unternehmensabteilungen integrieren müssen. Aber so langsam sind eine Annäherung und ein kritischer Blick auf die eigene Organisation notwendig. Dadurch lassen sich die Bereiche identifizieren, in denen KI-Funktionen tatsächlich Sinn ergeben und einen Mehrwert bringen. Denn sie können davon ausgehen, dass ihre Wettbewerber derzeit genau das tun. Dabei geht es nicht darum, als erster irgendwelche KI-Tools zu implementieren. Sondern darum, zeitnah zu evaluieren, wie die betriebliche Effizienz und Umsätze gesteigert und Kosten gesenkt werden können.

Dabei helfen schon kleine Schritte: Bei Brevo gibt es beispielsweise einen KI-Assistenten, mit dem man prägnante, spannende Betreffzeilen generieren kann oder auch das Tool “Versandzeitoptimierung”, womit die beste Versandzeit für jeden Empfänger individuell berechnet und für die beste Öffnungsrate optimiert wird. Für uns ist das erst der Anfang dessen, was wir mit KI in unseren Produkten planen – hilft aber Mitarbeitern, sich langsam an den Umgang damit zu gewöhnen und den praktischen Nutzen zu erfahren. Umso leichter wird es dann, wenn sie größere Aufgaben mithilfe von KI bewältigen wollen oder sollen. Wir planen schon bald, KI auch in der kompletten Newsletter-Erstellung oder in Workflows zu integrieren. Wer sich da schon ein bisschen auskennt, ist natürlich im Vorteil. Daher dürfen Unternehmen sich dem KI-Wettbewerb nicht verschließen. Tun sie es doch, werden sie eher früher als später den Anschluss an ihre Konkurrenz verlieren.

Weitere Informationen zum Thema:

datensicherheit.de, 31.10.2023
Ambivalente Künstliche Intelligenz – KI als Fluch oder Segen für die Cyber-Sicherheit

]]>
https://www.datensicherheit.de/ki-mehr-als-ein-hype/feed 0