Experten – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Wed, 22 Apr 2026 10:35:14 +0000 de hourly 1 Nutzer-Umfrage: Fast 50 Apps durchschnittlich auf jedem Smartphone installiert https://www.datensicherheit.de/nutzer-umfrage-50-apps-smartphone-installation Thu, 23 Apr 2026 22:27:00 +0000 https://www.datensicherheit.de/?p=54108 Auch Basis-Apps mit großer Bedeutung: Für 44 Prozent ist der Taschenrechner auf dem Smartphone besonders wichtig – und für 43 Prozent die Notizen-App

[datensicherheit.de, 24.04.2026] Auf dem Smartphone bündelt sich für viele Menschen heute offensichtlich ein immer größerer Teil ihres Alltags – egal, ob Kommunikation, Bankgeschäfte oder Navigation: Entsprechend wächst auch die Zahl der dafür genutzten Apps. Im Schnitt seien auf privat genutzten Smartphones in Deutschland 46 Apps zusätzlich zu den vorinstallierten Anwendungen installiert. Grundlage dieser Erkenntnis ist eine Befragung von Bitkom Research im Auftrag des Digitalverbands Bitkom e.V. – hierzu wurden demnach 1.006 Menschen in Deutschland ab 16 Jahren telefonisch befragt, darunter 861 Personen, welche ihr Smartphone privat nutzen. Diese repräsentative Gesamtumfrage habe im Zeitraum der Kalenderwochen 1 bis 5 2026 stattgefunden.

bitkom-sebastian-kloess

Foto: Bitkom e.V.

Dr. Sebastian Klöß: Mittlerweile gewinnen auch KI-Apps spürbar an Bedeutung und erweitern das Nutzungsspektrum nochmal deutlich

Nur 4% der Smartphone-Nutzer haben bisher keine einzige zusätzliche App installiert

Im vergangenen Jahr – 2025 – habe dieser Wert noch bei 42 gelegen. Fast jeder Zweite (49%) habe sogar 50 Apps und mehr auf dem Smartphone. Weitere 19 Prozent kämen auf 30 bis unter 50 Apps, 13 Prozent auf 20 bis unter 30 Apps.

  • Nur vier Prozent hätten keine einzige zusätzliche App installiert.

„Smartphone-Apps sind für viele Menschen der einfachste Zugang zu Kommunikation, Services, Informationen und Unterhaltung“, erläutert Bitkom-Experte Dr. Sebastian Klöß. Er berichtet: „Mittlerweile gewinnen auch KI-Apps spürbar an Bedeutung und erweitern das Nutzungsspektrum nochmal deutlich.“

Nutzer von Smartphones nutzen vor allem Apps für Kurznachrichten

Am wichtigsten seien den Nutzern auf ihrem Smartphone vor allem Apps für Kurznachrichten wie „WhatsApp“, „iMessage“ oder „Signal“: 83 Prozent würden diese als besonders wichtig benennen. Praktisch gleichauf lägen Anwendungen für Finanzen und Bezahlen mit 80 Prozent sowie E-Mail-Apps mit 70 Prozent.

  • Ebenfalls für viele von großer Bedeutung seien Apps für Fotos und Mediengalerie (69%), Wetter (68%), Soziale Medien, Navigation und Karten sowie Nachrichten und News – jeweils 66 Prozent. Auch Anwendungen rund um Gesundheit, Fitness und Ernährung (63%), Online-Shopping (61%) sowie Mobilität und Reisen (56%) gehörten für viele fest zum digitalen Alltag.

Knapp die Hälfte nenne zudem Kalender- und Organisations-Apps (54%), Streaming-Apps für Musik, Video und Podcasts (50%) sowie KI-Anwendungen wie „ChatGPT“, Sprachassistenten oder Text- und Bildgeneratoren (47%) als besonders wichtig. „Und nicht zuletzt haben auch Basis-Apps eine große Bedeutung: Für 44 Prozent ist der Taschenrechner besonders wichtig – und für 43 Prozent die Notizen-App.“

Weitere Informationen zum Thema:

bitkom
Über uns

bitkom
Dr. Sebastian Klöß: Leiter Märkte & Technologien Bitkom e.V.

datensicherheit.de, 07.04.2026
SparkCat meldet sich zurück: Neue Malware-Variante im App Store und in Google Play aufgetaucht / Laut Kaspersky ist die neue Schadsoftware in Apps für Lieferdienste und Unternehmenskommunikation versteckt

datensicherheit.de, 21.03.2026
Zimperium warnt vor neuer Banking-Malware-Welle: 1.243 Apps kompromittiert / Zimperium-Sicherheitsforscher stufen aufgedeckte cyberkriminelle Aktivitäten als Bestandteil ausgeklügelter und skalierbarer Kampagnen ein

datensicherheit.de, 31.01.2026
Spionagewerkzeug GhostChat: Gefälschte Dating-App als Köder / Aktuelle, von ESET entdeckte „GhostChat“-App-Kampagne zeigt, wie wirksam soziale Manipulation ist

]]>
Rückabwicklung von Lebens- und Rentenversicherungen: Verbraucherschützer warnen vor unseriösen Dienstleistern https://www.datensicherheit.de/rueckabwicklung-lebens-rentenversicherungen-verbraucherschuetzer-warnung Tue, 21 Apr 2026 22:31:00 +0000 https://www.datensicherheit.de/?p=54055 Im Internet und auf Social-Media-Kanälen werben Anbieter aktuell mit Slogans wie „Lebensversicherung erfolgreich rückfordern“ oder „Bis zu 200 % mehr aus Ihrem Vertrag holen“

[datensicherheit.de, 22.04.2026] Die Verbraucherzentrale Hamburg legt in einer aktuellen Stellungnahme Verbrauchern mit einer Lebens- oder Rentenversicherung nahe, der Werbung sogenannter Rückabwicklern oder Vertragsoptimierer keinen Glauben zu schenken. Im Internet und auf Social-Media-Kanälen werben Anbieter demnach aktuell mit Slogans wie „Lebensversicherung erfolgreich rückfordern“ oder „Bis zu 200 % mehr aus Ihrem Vertrag holen“. Aus Sicht der Verbraucherschützer halten diese Aussagen selten, was sie versprechen: Verbraucher erhielten oft nur 75 bis 80 Prozent des Rückkaufswerts, während der Rest bei den Anbietern verbleibe. Kosten für Anwälte und Gutachten müssten die Versicherten zusätzlich aus eigener Tasche zahlen.

Anzeigen auf Social-Media-Plattformen versprechen, aus „schlechtem“ Versicherungsvertrag deutlich mehr Geld herauszuholen als bei normaler Kündigung

„Der Erfolg ist ungewiss!“, kommentiert Sandra Klug von der Verbraucherzentrale Hamburg (vzhh). Sie erläutert: „Unser Eindruck ist, dass die Anbieter jeden Vertrag für geeignet erklären und die Versprechungen überwiegend ,heiße Luft’ sind. In vielen Fällen sehen wir sogar gute Ansätze für eine Anwaltshaftung.“

  • Verbraucher berichteten den Verbraucherschützern immer wieder von ähnlichen Abläufen: Entweder meldeten sie sich auf Anzeigen auf Social-Media-Plattformen oder ihr Vermittler nehme mit ihnen Kontakt auf und verspreche, aus einem „schlechten“ Versicherungsvertrag deutlich mehr Geld herauszuholen als bei einer normalen Kündigung.

Die Vermittler versprechen laut vzhh mitunter, das 1,5- bis 2-Fache im Vergleich zu einer Kündigung zu erzielen. Die Kunden würden die Ansprüche aus dem Vertrag dann an ein Drittunternehmen abtreten, um diesen zu kündigen oder zu verkaufen.

Meistens haben Verbraucher am Ende weniger Geld als bei normaler Kündigung

Das Drittunternehmen trete den Vertrag dann wieder an den Versicherten zurück ab, welcher schließlich mit seinem Versicherer über die Rückabwicklung verhandeln müsse. In der Regel sei dafür ein von vornherein eingeplanter Anwalt nötig – dessen Kosten hätten die Versicherten zu tragen. Scheitern die Verhandlungen, forderten Anwalt und mitunter auch der Dienstleister die Versicherten auf, auf eigene Kosten ein versicherungsmathematisches Gutachten einzuholen.

  • Die vzhh verzeichne Beschwerden verärgerter Verbraucher: Weder hätten sie einen Vergleich erzielen können noch hätten Rechtsschutzversicherer eine Deckungszusage erteilt. In den meisten Fällen blieben die Betroffenen auf den Kosten für Gutachten und Rechtsbeistand sitzen und hätten am Ende weniger Geld als bei einer normalen Kündigung.

Gegen kapitalbildende, zwischen 1994 und 2007 abgeschlossene Lebens- und Rentenversicherungen könnten Versicherte unter bestimmten Umständen Widerspruch einlegen. Dies gelte selbst für gekündigte Verträge. Ist eine Belehrung falsch, könnten Versicherte auch Verträge, die ab 2008 geschlossen wurden, widerrufen.

Weitere Informationen zum Thema:

Verbraucherzentrale Hamburg
Über uns

LinkedIn
Sandra Klug – Abteilungsleiterin Geld und Versicherungen bei Verbraucherzentrale Hamburg

Verbraucherzentrale Hamburg
Lebens- und Rentenversicherung / Rückabwickler und Vertragsoptimierer: Außer Spesen nichts gewesen

]]>
EU AI ACT: TÜV-Verband fordert einheitliche Rahmenbedingungen für industrielle KI https://www.datensicherheit.de/eu-ai-act-tuev-verband-einheitlichkeit-rahmenbedingungen-industrie-ki Mon, 20 Apr 2026 22:11:00 +0000 https://www.datensicherheit.de/?p=54043 Künstliche Intelligenz (KI) auf dem Sprung in die physische Welt der Maschinen, Robotik und Geräte

[datensicherheit.de, 21.04.2026] Der TÜV-Verband fordert eine zügige Umsetzung des „EU AI Act“ nach dem Vorschlag der EU-Kommission, um einen europaweit einheitlichen Rechtsrahmen für industrielle Anwendungen Künstlicher Intelligenz (KI) zu schaffen: „Künstliche Intelligenz macht gerade den Sprung in die physische Welt von Maschinen, Robotik und Geräten“, so Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, in seinem Kommentar zum Start der „Hannover Messe 2026“. Er führt hierzu aus: „KI ermöglicht immer flexiblere Roboter, die mit Menschen Hand in Hand arbeiten, automatisierte Qualitätskontrollen oder Simulationen mit Digitalen Zwillingen.“ Die Grundlage dafür bildeten die umfangreichen, in der deutschen Fertigungsindustrie vorhandenen Datenbestände.

tuev-verband-joachim-buehler

Foto: © Tobias Koch

Dr. Joachim Bühler warnt zur Eröffnung der „Hannover Messe 2026“ vor einem jahrelangen Regulierungsvakuum und einem Flickenteppich unterschiedlicher Einzelregelungen im „AI Act“-Kontext

Physische KI-Systeme mit spezifischen Gefahren

Bühler: „Deutsche Unternehmen haben die Chance, diesen ,Datenschatz’ zu heben und ihre Produktion auf das nächste Level zu heben. Das Ziel sind eine effizientere Fertigung und bessere Produkte!“

  • Voraussetzung dafür seien neben technischen und digitalen Kompetenzen die rechtlichen Rahmenbedingungen, um mögliche Risiken bewerten und eindämmen zu können.

„Von physischen KI-Systemen gehen spezifische Gefahren aus, zum Beispiel, wenn Mensch und Maschine miteinander interagieren oder autonome Systeme Fehlentscheidungen treffen.“ Der europäische „AI Act“ sehe daher bestimmte Sicherheitsanforderungen für sogenannte Hochrisiko-KI-Systeme vor.

Industrielle KI-Standards in Europa für den Weltmarkt entwickelt

„Dieser risikobasierte Ansatz soll für verschiedene Produktgruppen wie Maschinen, Medizinprodukte oder auch Spielzeug gelten“, unterstreicht Bühler. Darüber hinaus würden auf dieser Basis Industriestandards entwickelt, welche beispielsweise die Qualität der Trainingsdaten, den Schutz vor systematischen Verzerrungen sowie die Cybersicherheit von KI-Systemen beträfen. „Diese industriellen KI-Standards werden in Europa für den Weltmarkt entwickelt“, so Bühler.

  • Aktuell werde darüber diskutiert, den bereits beschlossenen „AI Act“ im Rahmen des „Digital Omnibus“ wieder aufzuschnüren und zentrale Regelungen aus diesem Gesetzespaket herauszulösen.

Während längere Umsetzungsfristen und Entlastungen für den Mittelstand sinnvoll seien, warnt der TÜV-Verband davor, „Hochrisiko-Produkte“ aus dem direkten Anwendungsbereich des „AI Act“ zu streichen. KI-Produkte mit hohem Risiko sind laut „AI Act“ demnach unter anderem Maschinen, Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen oder auch Spielzeuge.

Im „AI Act“ politisch verankertes Schutzniveau für KI-Systeme sollte vollständig erhalten bleiben

Diese Produktgruppen sollten nach dem Willen der Befürworter eines solchen Sektor-Exits stattdessen über spezifische Einzelgesetze geregelt werden. Dabei mache es technologisch keinen Unterschied, ob zum Beispiel ein Computer-Vision-KI-System in einem Medizingerät oder in einer Fertigungsmaschine Anwendung findet.

  • Da die technische Basis und die KI-spezifischen Risiken dieselben seien, müssten dafür auch dieselben Regeln gelten. „Mit einem Sektor-Exit würde der ursprüngliche Ansatz des ,AI Act’ ausgehebelt, einheitliche Regeln für viele Produktgruppen zu schaffen. Die Festlegung von Sicherheitsanforderungen für risikoreiche KI-Anwendungen würde auf unbestimmte Zeit verschoben“, gibt Bühler zu bedenken.

Es drohe ein „jahrelanges Regulierungsvakuum“ und anschließend ein „Flickenteppich unterschiedlicher Einzelregelungen“. Zugleich müsse das im „AI Act“ politisch verankerte Schutzniveau für KI-Systeme vollständig erhalten bleiben. Bühler warnt: „Eine Absenkung oder Aufweichung zentraler Sicherheitsanforderungen würde Vertrauen in KI untergraben und den europäischen Binnenmarkt schwächen!“

tuev-verband-stellungnahme-hannover-messe-2026

Abbildung: © TÜV-Verband

Der TÜV-Verband fordert, dass der „AI Act“ wie geplant umgesetzt werden sollte

KI-Entwicklung erfolgt schneller als sektorale Regulierung angepasst werden könnte

Aus Sicht des TÜV-Verbands würde eine sektorale Regulierung den Rechtsrahmen nicht vereinfachen, sondern weiter zersplittern. KI-Anforderungen müssten in zahlreiche Einzelregelwerke integriert werden – mit unterschiedlichen Standards, Verfahren und Fristen. Gleichzeitig entwickle sich KI schneller, als sektorale Regulierung angepasst werden könne.

  • „Das wäre kein Bürokratieabbau, sondern der Einstieg in einen ,regulatorischen Flickenteppich’ – mit mehr Aufwand, mehr Unsicherheit und höheren Belastungen für Unternehmen“, moniert Bühler. Darüber hinaus drohe die Entwicklung einheitlicher Sicherheitsstandards für KI zum Erliegen zu kommen, da die beteiligten Unternehmen ihre Experten aus den entsprechenden Gremien abziehen würden.

Bühlers Fazit: „Europa würde die Chance verspielen, weltweit eine Führungsrolle bei der Entwicklung von KI-Standards zu übernehmen!“ In den „Trilog“-Verhandlungen seien nun EU-Kommission, Mitgliedstaaten und EU-Parlament gefordert, den horizontalen Ansatz des „AI Act“ zu sichern und klare Regeln für „Hochrisiko-KI“ zu erhalten.

Weitere Informationen zum Thema:

TÜV VERBAND
Über uns

mfm – future at work,
mfm – Interview: Drei Fragen an Joachim Bühler

datensicherheit.de, 12.02.2026
AI Act: Durchführungsgesetz beschlossen / Das Durchführungsgesetz zum „EU AI Act“ legt unter anderem fest, welche Behörden in Deutschland künftig für die Umsetzung, die Aufsicht und Unterstützung von Unternehmen zuständig sind

datensicherheit.de, 31.07.2025
Ein Jahr AI Act: eco mahnt rechtssichere Rahmenbedingungen und politischen Gestaltungswillen an / Vor einem Jahr, am 1. August 2024, ist der europäische „AI Act“ in Kraft getreten – laut eco ein historischer Meilenstein für die globale KI-Regulierung und Grundlage, um KI „Made in Europe“ zum Erfolgsmodell zu machen

datensicherheit.de, 05.02.2025
AI Act der EU verbietet bestimmte KI-Systeme und verpflichtet zur -Kompetenz / Die neue Regelung setzt das Verbot bestimmter KI-Systeme durch und legt Anforderungen an die -Kenntnisse der Beschäftigten fest

]]>
Laut YouGov-Studie entstehen viele Cyberrisiken im eigenen Unternehmen https://www.datensicherheit.de/yougov-studie-cyberrisiken-quelle-unternehmen Sun, 19 Apr 2026 22:33:00 +0000 https://www.datensicherheit.de/?p=54021 Zunehmend rückt der „Faktor Mensch“ in den Fokus: Phishing, manipulierte Anrufe oder gefälschte Identitäten können selbst moderne Schutzsysteme der Unternehmen umgehen

[datensicherheit.de, 20.04.2026] Cyberangriffe bleiben eine der größten Bedrohungen auch für deutsche Unternehmen – doch viele Sicherheitslücken seien hausgemacht, so eine zentrale Erkenntnis aus der aktuellen YouGov-Studie „Digitalisierungsbedarfe von Unternehmen 2026″ im Auftrag von 1&1 Versatel, für welche demnach vom 5. bis 13. Januar 2026 533 Entscheidungsträger in deutschen Unternehmen befragt wurden. Zu den hausgemachten Sicherheitslücken gehörten vor allem die wachsende Bedrohung durch „Social Engineering“ – also die gezielte Manipulation von Mitarbeitern zur Erlangung sensibler Informationen oder zum Umgehen von Sicherheitsmaßnahmen – und eine fehlende Resilienz.

1und1-versatel-frank-rosenberger

Foto: 1&1 Versatel

Frank Rosenberger: Sicherheit beginnt bei der Infrastruktur!

Ein Drittel der Unternehmen noch immer ohne konkrete Strategie

Der Anteil der Firmen, die „Social Engineering“ als „relevantes Risiko“ einstufen, sei seit 2024 um ein Drittel gestiegen – von 15 auf 20 Prozent. Gleichzeitig würden 18 Prozent fehlende Redundanz und Backups als konkrete Schwachstelle der eigenen IT-Infrastruktur benennen.

  • Zwar hätten 40 Prozent der befragten Unternehmen bereits in Sicherheitsmaßnahmen investiert und weitere 31 Prozent planten entsprechende Ausgaben. Dennoch habe fast ein Drittel der Unternehmen immer noch keine konkrete Strategie.

Technische Bedrohungen wie DDoS-Angriffe (47%) und Malware (31%) dominierten weiterhin das Risikobewusstsein. Zunehmend rücke jedoch der „Faktor Mensch“ in den Fokus: Phishing, manipulierte Anrufe oder gefälschte Identitäten umgingen selbst moderne Schutzsysteme. 35 Prozent der befragten Unternehmen sehen laut der Umfrage menschliches oder organisatorisches Versagen als „erhebliches Sicherheitsrisiko“.

Hausgemachte Risiken: „Faktor Mensch“ trifft auf Infrastrukturlücken in Unternehmen

Cybersicherheit endet nicht bei Mitarbeitern oder Firewalls!“, kommentiert Frank Rosenberger, CEO von 1&1 Versatel, die vorliegende Studie und weitet den Blick auf:

  • Er gibt zu bedenken: „Ohne redundante Anbindungen, stabile Netze und durchdachte Backup-Strategien bleiben Unternehmen verwundbar. Sicherheit beginnt bei der Infrastruktur!“

Resiliente, hochverfügbare Glasfasernetze, redundante Standortanbindungen und integrierte IT-Security-Konzepte werden laut Rosenberger „zunehmend zur strategischen Grundlage moderner IT-Landschaften. Der auf Geschäftskunden spezialisierte Telekommunikationsanbieter 1&1 Versatel unterstütze Unternehmen beim Aufbau ausfallsicherer und geschützter Netzinfrastrukturen – von der Konnektivität bis zu „Managed Security Services“.

Weitere Informationen zum Thema:

1&1 versatel
Wir machen Glasfaser möglich

1&1 versatel
Wir entwickeln 1&1 Versatel erfolgreich weiter: Frank Rosenberger, Vorsitzender der Geschäftsführung (Chief Executive Officer – CEO)

1&1 versatel, 2026
Digitalisierungsbedarfe von Unternehmen / Befragung von YouGov Deutschland im Auftrag von 1&1 Versatel (durchgeführt im Januar 2026)

datensicherheit.de, 28.03.2026
NIS2 wird nicht an der Technologie scheitern – sondern am Faktor Mensch / Die EU-Richtlinie erhöht die Erwartungen an die Cybersicherheit in ganz Europa und stellt das menschliche Verhalten in den Mittelpunkt der Compliance – MetaCompliance fordert Unternehmen auf ihre Belegschaft vorzubereiten.

datensicherheit.de, 11.05.2025
Neue Herausforderungen für die Cybersicherheit: KI und der menschliche Faktor / Für eine effektive Verteidigung sind integrierte, sorgfältig geplante und implementierte Strategien erforderlich. Zero Trust, Threat-Intelligence, Mitarbeitersensibilisierung und die Einführung vertrauenswürdiger Lösungen sind nur einige der Eckpfeiler einer effizienten Strategie.

]]>
Produktive Erfolge bleiben häufig aus: 95 Prozent der KI-Projekte scheitern https://www.datensicherheit.de/produktivitaet-erfolg-ausbleiben-95-prozent-ki-projekte-scheitern Sat, 18 Apr 2026 22:47:00 +0000 https://www.datensicherheit.de/?p=54001 DXC Technology benennt vier Bedingungen für Unternehmen, um KI-Projekte zum Erfolg zu führen

[datensicherheit.de, 19.04.2026] Künstliche Intelligenz (KI) gilt inzwischen als von den meisten Unternehmen anerkannte Technologie – doch produktive Erfolge bleiben offenbar noch häufig aus. Aktuelle Studien jedenfalls, darunter eine Umfrage von DXC Technology sowie eine vielzitierte MIT‑Analyse, zeigen ein eher ernüchterndes Bild: 95 Prozent der KI‑Pilotprojekte scheitern demnach, weil klare „Business Cases“, ausreichende Infrastruktur und verbindliche Rahmenbedingungen fehlen. KI‑Einführung droht damit oft zum Selbstzweck statt zum echten Produktivitätshebel zu werden. Warum „KI‑Aktionismus“ Unternehmen nicht weiterbringt und welche vier zentralen Voraussetzungen erfüllt sein müssen, damit KI einen messbaren Mehrwert schafft, erörtert Jacqueline Fechner, General-Managerin bei DXC Technology DACH, in ihrer aktuellen Stellungnahme. Die den aktuellen Erkenntnissen zugrundeliegende Studie sei im August 2025 durchgeführt worden und habe 2.496 Teilnehmer umfasst, welche in globalen Unternehmen in 23 Ländern Führungspositionen in den Bereichen Technologie und Wirtschaft innehätten.

dxc-technology-jacqueline-fechner

Foto: DXC Technology DACH

Jacqueline Fechner: Produktive KI entsteht nicht durch „Tools“, sondern durch Struktur und Verantwortlichkeit!

Klarer „Business Case“ als Grundlage der erfolgreichen KI-Nutzung

KI sei aktuell nicht nur in aller Munde, sondern auch in fast jedem Unternehmen auf irgendeine Art und Weise im Einsatz. „Doch wie produktiv ist das wirklich?“ Zahlen zeigten ein ernüchterndes Bild. Fechner kommentiert: „KI-Einführung darf kein Selbstzweck sein, sondern muss mit klaren Zielen erfolgen!“

  • In deutschen Unternehmen klaffe eine Umsetzungslücke beim Thema KI – dies zeige jedenfalls eine Umfrage von DXC Technology. Während KI für 77 Prozent der befragten Führungskräfte eine Priorität darstelle, könnten 65 Prozent keinen klaren „Business Case“ für ihr Unternehmen definieren.

94 Prozent stünden vor erheblichen Herausforderungen, KI im großen Maßstab einzusetzen. Dies werde bestätigt durch die inzwischen vielzitierte MIT-Studie, laut der 95 Prozent der KI-Pilotprojekte scheiterten.

„KI‑Aktionismus“ kann Erwartungen enttäuschen

In vielen Unternehmen lasse sich derzeit eine Art „KI‑Aktionismus“ beobachten, welcher einerseits durch die allgegenwärtige Medienberichterstattung zu KI und andererseits durch die breite Adaption von Chatbots in zahlreichen gesellschaftlichen Bereichen getrieben werde.

  • Fragen der strategischen Positionierung, Operationalisierbarkeit, Kosten-Nutzen-Abwägungen und „Compliance“ würden dabei zunächst gerne vernachlässigt. So verwundere es nicht, dass Pilotprojekte, welche unter Laborbedingungen idealisierte Probleme lösten, beim Einsatz in der echten Welt die Erwartungen nicht erfüllten.

„Bevor Unternehmen weiter im ,KI‑Aktionismus’ ihren Fokus zu verlieren riskieren, braucht es einen Realitätscheck!“, rät Fechner. Wenn Pilotprojekte reihenweise scheitern und „Business Cases“ im Nebel bleiben, sei klar: „So wird KI kein Produktivitätsmotor!“ Damit sich das ändert, müssen Unternehmen laut Fechner mindestens vier zentrale Voraussetzungen erfüllen:

1. Voraussetzung: Definierte „Business Cases“

„Bevor man sich als Heimwerker ein neues Werkzeug anschafft, sollte klar sein, was genau man damit tun möchte – sonst wird es schwer, damit tatsächlich Probleme zu lösen.“ In der Welt der KI sehe dies allerdings aktuell oft anders aus: Unternehmen führten „Tools“ ein und erwarten, dass sich daraus ein Selbstläufer entwickelt.

  • Dies möge in einzelnen Fällen funktionieren, strategisch fundiert sei es aber nicht. Stattdessen sollte zu Beginn einer KI-Strategie eine ehrliche Analyse von Funktionen stehen, bei denen KI einen Mehrwert unter realen Geschäftsbedingungen liefern kann. Dazu gehöre auch, auf Einschränkungen einzugehen, wie beispielsweise Datenschutz und Fehleranfälligkeit.

Zudem sei zu berücksichtigen, dass sich in „Human‑in‑the‑Loop“-Prozessen sowohl der menschliche Arbeitsaufwand als auch die benötigten Fähigkeiten verändern und diese Verschiebungen in eine Gesamtproduktivitätsrechnung einbezogen werden müssten. Je nach individueller Situation eines Unternehmens oder Branchenvorgaben könnten selbstverständlich noch weitere kritische Punkte hinzukommen. „Wenn ein potenzieller ,Business Case’ gegen diese Einschränkungen bestehen kann, gilt es weitere Punkte zu klären.“

2. Voraussetzung: Ausreichende Infrastruktur

Dass KI enorme Rechenleistungen benötigt, sei allgemein bekannt. „Wie diese bereitgestellt werden soll, bleibt eine schwierige Frage – vor allem, wenn Unternehmen die Kontrolle über ihre Daten behalten wollen oder müssen.“ Häufig mangele es in Unternehmen an der erforderlichen Infrastruktur, um KI-Pilotprojekte weiterzuentwickeln und in den produktiven Betrieb zu überführen.

  • Um dem entgegenzuwirken, sollten Unternehmen auf „cloud-native“, modulare Plattformen setzen, welche eine flexible Skalierung von Rechen- und Speicherkapazitäten ermöglichten. Ebenso entscheidend sei der uneingeschränkte Zugriff auf relevante Daten. Wenn den Modellen die notwendigen Daten fehlen, könne die KI nicht sinnvoll in reale Prozesse eingebunden werden.

Durch den Einsatz moderner „Data-Lake“- oder „Data-Mesh“-Ansätze könnten Unternehmen eine Infrastruktur etablieren, welche eine reibungslose Interaktion mit KI unterstützt. Darüber hinaus sollte eine modulare Architektur auch IoT- und „Cloud“-Ressourcen integrieren, um komplexe Geschäftsprozesse ganzheitlich abzubilden.

3. Voraussetzung: Transparente Change-Prozesse

„Was bei Diskussionen rund um KI gerne übersehen wird: Es geht nicht nur um technische Fragen, sondern auch um jeden Rollout, welcher von einem Change-Prozess begleitet wird. Dass diese häufig scheitern ist keine Neuigkeit: Vor mehr als zehn Jahren bezifferte McKinsey bereits den Anteil der fehlgeschlagenen Veränderungsprozesse auf 70 Prozent.“ Alles was mit KI zu tun hat, sei zudem kein herkömmlicher Change-Prozess; das Thema werde breit in der Gesellschaft diskutiert und sei emotional aufgeladen wie kaum eine andere Technologie.

  • Umso wichtiger sei es, den Rückhalt der Mitarbeiter zu gewinnen und zu halten, wenn KI-Projekte wirklich produktiv werden sollen. Unternehmen müssten vermeiden, dass Mitarbeiter sich als „Betroffene“ einer Entwicklung wahrnehmen, auf welche sie keinen Einfluss hätten. „Andernfalls entstehen schnell Unsicherheiten und Ängste – etwa die Sorge, dass KI langfristig den eigenen Arbeitsplatz ersetzen könnte.“

Dem lasse sich entgegenwirken, indem die Belegschaft frühzeitig und aktiv in KI-Initiativen eingebunden werde. Wichtig sei zudem, dass die Geschäftsführung Ziele, Zuständigkeiten und Rahmenbedingungen transparent kommuniziert. Ergänzend dazu könnten gezielte Weiterbildungsangebote Mitarbeiter dabei unterstützen, sich auf die Zusammenarbeit mit KI vorzubereiten.

4. Voraussetzung: Klare „Compliance“-Regelungen

Der „Black Box“-Charakter Generativer KI (GenAI) könne für Unternehmen, die mit sensiblen Daten arbeiten oder wertvolles Geistiges Eigentum verwalten, schnell zu einem Problem werden. Es müsse sichergestellt werden, dass es keine ungewollten bzw. unkontrollierten Datenabflüsse gibt.

  • Klare Richtlinien seien Pflicht, doch darüber hinaus sollten auch technische Barrieren etabliert werden. In einigen Fällen würden Unternehmen auch darüber nachdenken, eigene Modelle zu betreiben, „die nur auf interne Daten zugreifen und nicht mit dem öffentlichen Internet verbunden sind“. Dabei stelle sich allerdings wieder die Frage der ausreichenden Infrastruktur.

Am Ende zeigt sich laut Fechner: „Produktive KI entsteht nicht durch ,Tools’, sondern durch Struktur und Verantwortlichkeit! Unternehmen, die diese vier Voraussetzungen ernst nehmen, schaffen die Basis dafür, dass mit KI nicht nur experimentiert, sondern tatsächlich auch nachhaltig Wert für das Unternehmen geschaffen wird.“

Weitere Informationen zum Thema:

DXC
Wir helfen den innovativsten Unternehmen der Welt, im Zeitalter der KI erfolgreich zu sein

DXC, 16.11.2021
DXC Technology: Jacqueline Fechner ist neue General Managerin für die DACH-Region

MiT, NANDA, Aditya Challapally & Chris Pease & Ramesh Raskar & Pradyumna Chari, Juli 2025
The GenAI Divide / STATE OF AI IN BUSINESS 2025

McKinsey & Company, 01.07.2015
Changing change management

datensicherheit.de, 16.04.2026
Identitätsmanagement im Spannungsfeld zwischen menschlichen Nutzern, Maschinen, automatisierten Agenten und KI-generierten Personas / Der „Identity Management Day“ mahnt jedes Jahr, Antworten auf Fragen zu neuen Grenzen des Vertrauens im KI-Kontext zu finden

datensicherheit.de, 15.04.2026
Januskopf KI: Förderer und Zerstörer der IT-Sicherheit / „Assume a breach“ – d.h. grundsätzlich vom Eintritt eines schädlichen Vorfalls auszugehen – ist eine nützliche Denkweise in der IT-Sicherheit zur Prävention, Früherkennung und Reaktion

datensicherheit.de, 12.04.2026
KI-Verordnung: Konkretisierung der Transparenzpflichten für Unternehmen / Für betroffene Unternehmen wächst der Handlungsdruck – sie müssen wissen, wann KI-generierte oder KI-manipulierte Inhalte zu kennzeichnen sind

 

]]>
CSAM-Trilog voraus: eco-Warnung vor Suchpflichten und Doppelregulierung https://www.datensicherheit.de/csam-trilog-eco-warnung-suchpflichten-doppelregulierung Fri, 17 Apr 2026 22:56:00 +0000 https://www.datensicherheit.de/?p=53983 Der eco – Verband der Internetwirtschaft e.V. geht in seiner aktuellen Stellungnahme auf die gescheiterten EU-Verhandlungen zur „Chatkontrolle“ ein – diese verschärfen den Zeitdruck in den sogenannten Trilog-Verhandlungen

[datensicherheit.de, 18.04.2026] Der eco – Verband der Internetwirtschaft e.V. geht in seiner aktuellen Stellungnahme auf die gescheiterten EU-Verhandlungen zur „Chatkontrolle“ ein – diese verschärften den Zeitdruck in den sogenannten Trilog-Verhandlungen zur „CSAM-Verordnung“ erheblich. Der eco befürchtet demnach, dass dieser Druck zu übereilten Entscheidungen führen, die Grundrechte gefährden und gleichzeitig keinen effektiven Beitrag zum Kinderschutz leisten könnte. Die EU-Kommission hatte bereits im Mai 2022 einen Verordnungsentwurf zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern („CSAM-Verordnung“) vorgelegt. Dieser sieht unter anderem vor, Anbieter von Messenger- und Hosting-Diensten dazu zu verpflichten, Kommunikation und Daten ihrer Nutzer auf Darstellungen sexuellen Kindesmissbrauchs (sogenanntes CSA-Material) zu überprüfen.

eco-alexandra-koch-skiba

Foto: eco e.V.

Alexandra Koch-Skiba: Die EU-Gesetzgeber sind nun gefordert, eine ausgewogene Lösung zu finden, die sowohl den Schutz von Kindern stärkt als auch die Integrität sicherer digitaler Kommunikation wahrt!

eco-Forderung nach klarem Bekenntnis zu freiwilligen Maßnahmen sowie mehr regulatorischer Kohärenz

Im Vorfeld der anstehenden Trilog-Verhandlungen zur europäischen CSAM-Verordnung fordert der eco ein klares Bekenntnis zu freiwilligen Maßnahmen sowie mehr regulatorische Kohärenz im weiteren Gesetzgebungsprozess.

  • Alexandra Koch-Skiba, Leiterin der „eco Beschwerdestelle“, kommentiert: „Die kommenden Trilog-Verhandlungen sind entscheidend für die Frage, wie wirksam und zugleich grundrechtskonform der Kampf gegen Darstellungen sexuellen Kindesmissbrauchs im Internet künftig ausgestaltet wird!“

Aus Sicht der Internetwirtschaft müsse dabei klar sein: Freiwillige Maßnahmen zur Erkennung und Bekämpfung entsprechender Inhalte müssten weiterhin im Zentrum stehen. Diese hätten sich in der Praxis bewährt und leisteten seit Jahren einen wichtigen Beitrag zum Kinderschutz im Digitalen Raum.

Klar abgestimmter Rechtsrahmen schafft laut eco notwendige Rechtssicherheit und Praktikabilität für Anbieter

Dabei brauchten freiwillige, für das jeweilige Unternehmen passgenaue Aufdeckungs-Maßnahmen eine verlässliche und rechtssichere Grundlage – nicht ihre Ablösung durch weitreichende Verpflichtungen für alle. Zudem seien etablierte Kooperationen und Prozesse zwischen Beschwerdestellen, Anbietern und Strafverfolgungsbehörden als wesentliches Element im Kampf gegen Missbrauchsdarstellungen zu stärken und zu berücksichtigen.

  • Gleichzeitig sei es entscheidend, dass die neue Regulierung kohärent in das bestehende Rechtsgefüge eingebettet werde. Überschneidungen mit oder gar Widersprüche zu bereits geltenden Regelwerken – etwa dem „Digital Services Act“ oder im Bereich des Datenschutzes – müssten unbedingt vermieden werden.

Nur ein klar abgestimmter Rechtsrahmen schaffe die notwendige Rechtssicherheit und Praktikabilität für Anbieter und gewährleiste effektiven Kinderschutz. Zudem wirke sich ein kohärenter Rechtsrahmen positiv auf die Aufsicht aus, indem weniger Mehrfachaufsicht stattfinde. Dies fördere einheitliche Aufsichtsentscheidungen und die Effektivität von regulatorischen Maßnahmen. Zugleich werde bürokratischer Mehraufwand gemindert.

„eco Beschwerdestelle“ seit 1996 aktiv und integraler Bestandteil des Systems der regulierten Selbstregulierung in Deutschland

Insgesamt bedürfe es klar definierter Zuständigkeiten und einer engen Verzahnung mit etablierten Strukturen und bereits vorhandener fachlicher Expertise:

  • Koch-Skiba betont abschließend: „Die EU-Gesetzgeber sind nun gefordert, eine ausgewogene Lösung zu finden, die sowohl den Schutz von Kindern stärkt als auch die Integrität sicherer digitaler Kommunikation wahrt. Kinderschutz, Rechtssicherheit und praktikable Umsetzung müssen dabei Hand in Hand gehen!“

Die „eco Beschwerdestelle“ ist seit 1996 aktiv und laut eco integraler Bestandteil des Systems der regulierten Selbstregulierung in Deutschland. Sie ermögliche Internetnutzer die kostenlose und anonyme Meldung jugendgefährdender sowie strafbarer Inhalte und arbeitet eng mit Providern, Behörden und internationalen Partnern zusammen.

Weitere Informationen zum Thema:

eco VERBAND DER INTERNETWIRTSCHAFT
Über uns: eco – Verband der Internetwirtschaft e.V. / Wir gestalten das Internet.

eco VERBAND DER INTERNETWIRTSCHAFT
Kontakt / Ihre Ansprechpartner

eco, BESCHWERDESTELLE
HINTERGRUNDPAPIER: 30 Jahre eco Beschwerdestelle – 30 Jahre engagiert gegen rechtswidrige Inhalte im Netz

eco, BESCHWERDESTELLE
Jahresbericht 2025

EUR-Lex
Trilog

datensicherheit.de, 19.03.2026
Ende der freiwilligen Chatkontrolle voraus: eco plädiert gegen Suchpflicht im Rahmen der CSAM-Verordnung / Der eco warnt davor, dass nun Zeitdruck zu übereilten Entscheidungen führen und somit Grundrechte gefährden könnte – ohne dabei einen effektiven Beitrag zum Kinderschutz zu leisten

datensicherheit.de, 10.04.2024
98,35 Prozent: eco-Beschwerdestelle meldet Erfolgsquote 2023 bei webbasierten Inhalten weltweit / Vorlage des Jahresberichts der eco-Beschwerdestelle am 9. April 2024 für das Jahr 2023

datensicherheit.de, 19.10.2022
Chatkontrolle: Protest verbreitet sich europaweit / European Digital Rights startet Kampagne gegen Chatkontrolle unter dem Motto „Stop Scanning Me!“

datensicherheit.de, 10.10.2022
EU-Pläne zur Chatkontrolle: 20 zivilgesellschaftliche Organisationen üben Kritik in einem gemeinsamen öffentlichen Aufruf / Überwachungsinfrastruktur von erschreckendem Ausmaß könnte in der EU etabliert werden

]]>
RSF-Kritik an Angriff auf redaktionelle Freiheit: Google lässt Überschriften automatisiert per KI umformulieren https://www.datensicherheit.de/rsf-kritik-google-umformulierung-ueberschriften-ki Fri, 17 Apr 2026 22:50:00 +0000 https://www.datensicherheit.de/?p=53982 Google testet nach aktuellen RSF-Erkenntnissen derzeit eine neue Funktion, mittels KI-Werkzeugen eigenständig Schlagzeilen journalistischer Artikel in den Suchergebnissen umzuschreiben

[datensicherheit.de, 18.04.2026] Der Reporter ohne Grenzen e.V. (RSF) hat in einer Stellungnahme vom 14. April 2026 Kritik an einem neuen Experiment von Google publik gemacht: Der Konzern testet demnach derzeit eine neue Funktion, mittels der Werkzeuge Künstlicher Intelligenz (KI) eigenständig Schlagzeilen von journalistischen Artikeln in den Suchergebnissen umschreiben – d.h. von Redaktionen erstellte und freigegebene Inhalte werden so nachträglich von einem Roboter verändert. RSF fordert Google auf, dieses Experiment umgehend zu stoppen. Dieser Fall zeige einmal mehr, dass Online-Plattformen ohne klare Regulierung bereit seien, journalistische Inhalte eigenmächtig zu verändern. Die von RSF initiierte „Paris Charter on AI and Journalism” aus dem Jahr 2023 fordert indes klare Grenzen für den Einsatz von KI im Umgang mit journalistischen Inhalten: Systeme dürften Inhalte nicht verändern oder verfälschen, sondern müssten deren Integrität wahren. Auf der Rangliste der Pressefreiheit belegten die USA leut RSF Platz 57 von 180 Ländern.

rsf-paris-charter-ai-journalism

Abbildung: RSF

KI-Einsatz im Umgang mit journalistischen Inhalten: „Paris Charter on AI and Journalism” von 2023 fordert klare Grenzen

Google hat gegenüber RSF einen „kleinen Test” bestätigt

Google habe diese Praxis erst nach Recherchen von Journalisten eingeräumt: In diesem Fall seien es Tech-Reporter des Portals „The Verge“ gewesen, welche am 20. März 2026 offenlegt hätten, dass Artikel in der Google-Suche mit veränderten Überschriften erschienen. Google habe gegenüber RSF einen „kleinen Test” bestätigt und diesen damit begründet, dass die Inhalte auf diese Art den Nutzern „besser zugänglich” gemacht würden. Details habe das Unternehmen nicht genannt.

  • Bereits zuvor habe Google Schlagzeilen angepasst – doch laut „The Verge“ hat sich die Praxis deutlich verändert: Statt kleiner Kürzungen komme es nun zu inhaltlichen Verschiebungen. So sei aus einer kritischen Überschrift über ein KI-Tool eine neutrale Aneinanderreihung von Schlagwörtern geworden – ohne einen gesonderten Hinweis darauf, dass diese Formulierung nicht aus der Redaktion stammt.

„Das wichtigste Gut von Journalismus ist die Glaubwürdigkeit!“, betont indes Sören Kittel, Pressereferent von Reporter ohne Grenzen für KI. Er kritisiert: „… Google verletzt mit diesem Medien-Experiment die Integrität von journalistischer Arbeit im Digitalen Raum.“ Die Grenze zwischen Original und KI-Bearbeitung verschwimme ohnehin schon ständig für Nutzer. Gerade deshalb sei es entscheidend, dass bei technologischen Innovationen darauf geachtet wird, die redaktionelle Unabhängigkeit von Inhalten zu wahren.

2024 hatte RSF Apple aufgefordert, eine Funktion zur automatischen Zusammenfassung von Nachrichten zu stoppen

RSF sieht in diesem Vorgehen einen klaren Eingriff in die redaktionelle Unabhängigkeit. Bereits im Dezember 2025 habe Google Schlagzeilen im personalisierten Feed „Discover” umgeschrieben – zunächst als Test, seit Januar 2026 dauerhaft. Laut „The Verge“ führten diese Änderungen teils zu irreführenden oder falschen Darstellungen. Journalist Sean Hollister habe gegenüber RSF gewarnt, dies könne langfristig sowohl das Vertrauen in Plattformen als auch in Medien untergraben.

  • Das Gleiche gelte für die von Google seit einigen Monaten angebotenen Zusammenfassungen („Übersicht mit KI”): Laut einem Bericht der „New York Times“ sind die Ergebnisse, die dort zusammengefasst werden, bei neun von zehn Anfragen korrekt – jedoch schleichen sich immer wieder Fehler in Zusammenfassungen, welche durch sogenanntes Halluzinieren der KI entstehen. Selbst in Fällen, in denen Google eine Webseite als Quelle nennen könne, seien die Antworten nicht zuverlässig richtig.

Dieser Fall von Google reihe sich in eine Serie ähnlicher Eingriffe großer Tech-Unternehmen in die journalistische Glaubwürdigkeit ein. Im Dezember 2024 hatte RSF Apple aufgefordert, eine Funktion zur automatischen Zusammenfassung von Nachrichten zu stoppen, nachdem Apple Inhalte der BBC verfälscht dargestellt habe. Nach öffentlichem Druck sei dieses Feature vorübergehend von Apple ausgesetzt worden.

Weitere Informationen zum Thema:

RSF REPORTER OHNE GRENZEN
Über uns: Reporter ohne Grenzen (RSF) ist Teil der internationalen Organisation Reporters sans frontières, die sich weltweit für Presse- und Informationsfreiheit einsetzt. Wir machen auf Angriffe gegen Journalist*innen aufmerksam und leisten konkrete Hilfe für Medienschaffende in Not. Unser Team kämpft gegen Zensur, Überwachung und Repression.

Berliner Zeitung
Sören Kittel

RSF REPORTER OHNE GRENZEN
USA, Amerika – Rangliste der Pressefreiheit #57 von 180 Ländern

RSF, 10.11.2023
PARIS CHARTER ON AI AND JOURNALISM

The Verge, Sean Hollister, 20.03.2026
Google Search is now using AI to replace headlines / We’re seeing Verge headlines rewritten by Google AI

The Verge
Sean Hollister

The New York Times, Tripp Mickle & Cade Metz & Dylan Freedman & Teresa Mondría Terol & Keith Collins, 07.04.2026
How Accurate Are Google’s A.I. Overviews?

]]>
Modellcharakter: Fakeshop-Finder mit Deutschem Präventionspreis 2026 ausgezeichnet https://www.datensicherheit.de/modellcharakter-fakeshop-finder-deutscher-praeventionspreis-2026 Thu, 16 Apr 2026 22:03:00 +0000 https://www.datensicherheit.de/?p=53886 Online-KI-Unterstützung für Verbraucher zur Aufspürung von Fakeshops im Internet

[datensicherheit.de, 17.04.2026] Der „Fakeshop-Finder“ ist ein Projekt der Verbraucherzentrale NRW sowie der Verbraucherzentralen in Baden-Württemberg, Bayern, Berlin, Brandenburg, Hessen, Niedersachsen, Sachsen-Anhalt und Schleswig-Holstein. Nun hat die Verbraucherzentrale NRW mit dem „Fakeshop-Finder“ als einer von drei Preisträgern den „Deutschen Präventionspreis 2026“ gewonnen. Diese Auszeichnung soll Projekte, Konzepte oder Maßnahmen würdigen, welche vorbeugend in die Gesellschaft wirken. Der Preis wird von der gemeinnützigen Gesellschaft Deutscher Präventionstag (DPT) in Kooperation mit der Deutschen Stiftung für Verbrechensverhütung und Straffälligenhilfe (DVS) vergeben.

vz-nrw-fakeshop-finder

Abbildung: Verbraucherzentrale NRW

„Fakeshop-Finder“ seit 2022 Online-Hilfe für Verbraucher

„Fakeshop-Finder“ echtes Vorbild für einfache, wirksame und zukunftsweisende Prävention

Mit der sich auf Künstliche Intelligenz (KI) stützenden Anwendung „Fakeshop-Finder“, welche Verbraucher vor betrügerischen Onlineshops schützen soll, hat die Verbraucherzentrale NRW demnach in einem Feld von 20 Bewerbungen überzeugt und eindrucksvoll demonstriert, wie digitale Prävention wirksam in die Praxis umgesetzt werden kann.

  • Die Jury habe den „Modellcharakter“ gelobt: Dieses bundesweit einzigartige Projekt im Verbraucherschutz sei „ein echtes Vorbild für einfache, wirksame und zukunftsweisende Prävention“. Die Juroren hätten zudem die Übertragbarkeit des Modells auf andere Staaten hervorgehoben.

Das Preisgeld in Höhe von 1.500 Euro fließe in die weitere Projektarbeit. „Der Fakeshop-Finder ist ein Beispiel dafür, wie Künstliche Intelligenz sinnvoll und verantwortungsvoll eingesetzt werden kann. Einfach, schnell und zuverlässig schützt das Online-Tool jeden Tag Tausende Menschen vor Betrug“, kommentiert Wolfgang Schuldzinski, Vorstand der Verbraucherzentrale NRW.

Seit 2022 bereits über 100.000 Fakeshops identifiziert

Der „Fakeshop-Finder“ erleichtert es Nutzern, betrügerische Shops im Internet frühzeitig zu erkennen. Er wird federführend von der Verbraucherzentrale NRW, aber gemeinsam mit ihrem technischen Partner, der mindUp GmbH aus Konstanz, sowie Verbraucherzentralen aus acht weiteren Bundesländern betrieben.

  • Seit dem Start im Jahr 2022 seien bereits mehr als 100.000 Fakeshops identifiziert worden. In jedem Monat finde der „Fakeshop-Finder“ etwa 1.800 neue gefälschte Onlineshops. Mehr als elf Millionen Mal hätten Verbraucher den „Fakeshop-Finder“ bisher genutzt. Aktuell verzeichne die Verbraucherzentrale etwa 14.500 Aufrufe pro Tag.

Der „Deutsche Präventionspreis“ wird von der gemeinnützigen Gesellschaft Deutscher Präventionstag (DPT) in Kooperation mit der Deutschen Stiftung für Verbrechensverhütung und Straffälligenhilfe (DVS) ausgelobt. Im Jahr 2026 wurde nun der „Deutsche Präventionspreis“ zum ersten Mal vergeben.

Weitere Informationen zum Thema:

Verbraucherzentrale Nordrhein-Westfalen
Unsere Beratung im Überblick: Ob persönlich, per Telefon oder E-Mail – wir sind für Sie da!

Verbraucherzentrale
Fakeshop-Finder: Ist dieser Online-Shop seriös?

Institut für Verbraucherwissenschaften
Wolfgang Schuldzinski / Vorstand Verbraucherzentrale NRW

DPT Deutscher Präventionstag
Leitbild

DPT Deutscher Präventionstag
Deutsche Stiftung für Verbrechensverhütung und Straffälligenhilfe (DVS)

DPT Deutscher Präventionstag
Auslobung Deutscher Präventionspreis / Im Jahr 2026 wird der Deutsche Präventionspreis (DPP) zum ersten Mal vergeben!

datensicherheit.de, 05.08.2022
Fakeshop-Finder prüft Web-Shops auf Echtheit / Wer etwas online etwas bestellen möchte, sollte die Internet-Adresse damit vorab überprüfen lassen

]]>
Kollege KI: Jeder vierte Erwerbstätige setzt bei wichtigen Fragen zuerst Vertrauen in einen Chatbot https://www.datensicherheit.de/kollege-ki-26-prozent-erwerbstaetige-vertrauen-chatbot Wed, 15 Apr 2026 22:26:00 +0000 https://www.datensicherheit.de/?p=53887 Zu Bewerbungen, Gehaltsgesprächen, Fachthemen oder kreativen Prozessen wenden sich sogar mehr als 40 Prozent der vom PINKTUM Institute Befragten primär an einen Chatbot

[datensicherheit.de, 16.04.2026] Künstliche Intelligenz (KI) wird offensichtlich für viele Beschäftigte zum ersten Ansprechpartner bei relevanten beruflichen und privaten Fragestellungen: Dies zeigt demnach eine repräsentative Studie vom PINKTUM Institute unter 1.550 Erwerbstätigen in Deutschland. Jeder Vierte (26 %) setze über alle abgefragten Anwendungsbereiche hinweg vorrangig auf KI-Chatbots wie „ChatGPT“ oder „Gemini“. Zu Bewerbungen, Gehaltsgesprächen, Fachthemen oder kreativen Prozessen wendeten sich sogar mehr als 40 Prozent der Befragten primär an einen Chatbot. Außerdem fühlten sich viele Anwender von der KI manchmal besser verstanden als von Menschen (29% über alle Altersgruppen). Unter jüngeren Erwerbstätigen (25 bis 29 Jahre) habe sogar mehr als jeder Zweite (56%) das Gefühl, dass der Chatbot ihn teilweise besser versteht.

pinktum-intsitute-studie-kollege-ki

Abbildung: PINKTUM Institute

Umfrage über Austausch und Zusammenarbeit zwischen Mensch und KI-Chatbot

43 Prozent der Befragten geben an, mittels KI-Chatbots mehr Arbeit zu schaffen

Damit beginne sich ein zentrales Prinzip der Arbeitswelt zu verschieben: Vertrauen werde nicht mehr ausschließlich zwischen Menschen, sondern zunehmend in Systeme aufgebaut.

  • Dieser Wandel werde maßgeblich durch Effizienzgewinne getrieben: 43 Prozent der Befragten hätten angegeben, mit KI-Chatbots mehr Arbeit zu schaffen, 48 Prozent meinten, damit bessere Ergebnisse zu erzielen und 46 Prozent erlebten eine Entlastung im Arbeitsalltag.

Gleichzeitig offenbare die vorliegende Studie auch eine kritische Kehrseite: 43 Prozent setzten KI-Chatbots gezielt ein, um eine vertiefte Auseinandersetzung mit Themen zu vermeiden. Die Folge seien zwar schnellere Ergebnisse – jedoch oft ohne ein fundiertes Verständnis der zugrunde liegenden Inhalte und Zusammenhänge.

KI-Chatbots drohen als „kognitive Abkürzung“ genutzt zu werden

KI werde somit nicht nur als Werkzeug zur Qualitätssteigerung genutzt, sondern auch als eine Art „kognitiver Abkürzung“. 46 Prozent der Befragten stellten für diese Beschleunigung sogar Bedenken hinsichtlich ihrer Privatsphäre zurück.

  • Joachim Pawlik, CEO PINKTUM, kommentiert: „KI macht uns produktiver, aber sie verführt uns auch dazu, weniger selbst zu denken. Wenn Bequemlichkeit zur Leitlogik wird und Vertrauen sich von Menschen auf Systeme verlagert, entsteht ein strukturelles Risiko für Kompetenz, Verantwortung und Führung!“

Abschließend gibt Pawlik zu bedenken: „KI verändert deshalb nicht nur Arbeit, sondern auch den Umgang mit Verantwortung. Führung muss aktiv gegensteuern, indem sie Reflexion einfordert und die Urteilskraft von Mitarbeitenden stärkt!“

Weitere Informationen zum Thema:

PINKTUM Institute
Über uns

PINKTUM
Our leadership team / Joachim Pawlik, CEO

PINKTUM
Studien und Leitfäden: Umfrageergebnisse, Gedankenstützen und Perspektivwechsel. Die PINKTUM Studien und Leitfäden bieten spannende Lektüren mit tiefgehender Hintergrundanalytik und praxisnahe Impulse für die eigene Lernkultur.

datensicherheit.de, 17.11.2025
Werkzeuge für Phishing-Angriffe: ESET-Warnung vor Missbrauch von KI-Chatbots / Neue Betrugsmasche „Grokking“ nutzt Sprachmodelle aus – Angreifer manipulieren KI-Bots, um gefährliche Phishing-Links zu verbreiten

datensicherheit.de, 23.05.2025
Online-Shopping: Noch schlägt der Mensch beim Kundenservice den Chatbot / Ein Kundenservice durch Chatbots überzeugt derzeit erst die Hälfte der Nutzer eines solchen Angebots – die technische Entwicklung bei Chatbots verläuft indes rasant weiter

datensicherheit.de, 17.02.2023
Betrug mittels KI: Chatbots und Text-to-Speech bergen neben Vorteilen auch potenzielle Gefahren / Auf dem Gebiet der KI hat sich in den letzten Monaten viel getan – so sorgt derzeit vor allem ChatGPT für Aufsehen

]]>
KI in der Fertigung erhöht die Anforderungen an die Datensicherheit https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit#respond Wed, 15 Apr 2026 05:27:06 +0000 https://www.datensicherheit.de/?p=53970 Intelligente Fabriken brauchen intelligente Sicherheit, um die Vorteile zu nutzen und die Risiken zu vermeiden

Von unseem Gastautor Serge Thibault, VP Information Security bei Poka

[datensicherheit.de, 15.04.2026] Die Integration von Künstlicher Intelligenz (KI) in der Fertigung stellt eine regelrechte Revolution dar. Sie ermöglicht Herstellern beeindruckende Vorteile in Bezug auf Effizienz, Produktivität, Wissensaustausch und Kostensenkungen. Zwar ist das Potenzial der KI in der Fertigung groß, doch ohne angemessene Sicherheitsmaßnahmen auf Unternehmensebene kann sie schnell zu einem Betriebs- und Reputationsrisiko werden. Die leistungsstarken KI-Tools bringen kritische Sicherheits- und Compliance-Probleme mit sich. Das stellt Fertigungsunternehmen vor die Frage, wie sie die Vorteile der KI nutzen können, ohne die Datensicherheit oder die operative Integrität zu gefährden. Plattformen für vernetzte Mitarbeiter kommt dabei eine entscheidende Rolle zu. Sie verringern das Risiko bei der Implementierung von KI – vom Umgang mit Kundendaten bis hin zu Transparenz und Schutzstrategien.

KI – Das Dilemma von Nutzen und Risiko

Sehen wir uns das Dilemma von Nutzen und Risiko näher an. Die Investitionen in Künstliche Intelligenz KI in der deutschen Fertigungsindustrie nehmen rasant zu. Es wird erwartet, dass die Branche im Jahr 2030 einen Umsatz von 2.765,8 Millionen US-Dollar erzielen wird. Der „KI-Aktionsplan“ der Bundesregierung und die Initiative „Innovationspark Künstliche Intelligenz“ spielen eine Schlüsselrolle bei der Förderung der Integration von KI in der Fertigung. Die Bundesregierung hat 1,75 Milliarden Euro für die Förderung von KI-bezogener Forschung, Entwicklung und Anwendung bereitgestellt.

Doch je mehr die Branche in KI-Technologie investiert, desto anfälliger wird sie auch.

Hohe Kosten durch Cyberangriffe

Cyberangriffe kosten die deutsche Wirtschaft die enorme Summe von 148 Milliarden Euro pro Jahr. 2025 verzeichnete die Fertigung einen Anstieg der Ransomware-Angriffe um 56 % und war damit die am stärksten betroffene Branche. Da die Fertigungsindustrie die Grundlage für eine Reihe anderer Sektoren bildet – vor allem für die Automobilindustrie, die Luft- und Raumfahrtindustrie und die Lebensmittel- und Getränkeindustrie –, haben Cybervorfälle in Fertigungsunternehmen weitreichende Auswirkungen auf andere Branchen, wodurch sich die Produktionsunterbrechungen und Lieferkettenprobleme verschärfen.

Cyberangriffe können Millionen kosten und beeinträchtigen fast immer die Reputation des Unternehmens, das Vertrauen von Investoren und Verbrauchern und die Lieferketten. Während Fertigungsunternehmen die Einführung von KI vorantreiben, müssen sie deshalb robuste Strategien für die Cybersicherheit entwickeln, um ihre Systeme zu schützen, die Betriebskontinuität zu gewährleisten und das Vertrauen ihrer Kunden und Geschäftspartner zu erhalten.

Intelligentere Fabriken bieten eine größere Angriffsfläche – Cybersecurity muss vor den Schwachstellen der KI schützen

Produktionsstätten sind heute komplexer und dezentraler organisiert denn je, und die alten Systeme sind nicht fortschrittlich genug, um moderne Hacker abzuwehren. Erschwerend kommt hinzu, dass die Einführung von KI-Tools eine ganze Reihe neuer Bedrohungen mit sich bringt. KI beeinflusst heute bereits viele Aspekte des Fertigungsprozesses. Ob bei der Mitarbeiterschulung, Sicherheitsüberwachung, Datenerfassung oder den KI-Robotern in der Fabrikhalle: Fertigungsunternehmen sind vernetzter und intelligenter geworden – und angreifbarer.

Da KI-gestützte Arbeitsabläufe auf Daten, Sensoren und Netzwerke angewiesen sind, hat sich die Angriffsfläche für Cyberangriffe vergrößert. Hunderte oder Tausende vernetzter Geräte sind potenzielle Einfallstore für Hacker und andere Bedrohungen. Oft werden die Pläne zur Einführung von KI-Tools schneller umgesetzt als die notwendigen Sicherheitsmaßnahmen. Dabei ist es heute wichtiger denn je, Governance, Compliance und die generelle Sicherheit in der Fertigung effektiv zu gewährleisten.

Betrachten wir beispielsweise den Einsatz von Technologien für vernetzte Mitarbeiter. KI-gesteuerte Anwendungen vereinfachen den Zugriff auf wichtige Informationen, verbessern die globale Kommunikation und beschleunigen die Wertschöpfung durch die automatische Konvertierung digitaler Inhalte. Es gibt jedoch auch wichtige Sicherheitsaspekte, die berücksichtigt werden müssen, um die Daten zu schützen, mit denen diese Systeme arbeiten.

Der Schutz proprietärer Produktionsdaten gewährleistet eine sichere, isolierte und regelkonforme KI-Verarbeitung

Produktionsdaten sind äußerst sensibel, da sie Geschäftsgeheimnisse, detaillierte Informationen über Fertigungsprozesse und eine Vielzahl von Kundendaten enthalten. Bei der Implementierung von KI-Technologien ist deshalb die Frage entscheidend, ob Fertigungsdaten jemals an externe KI-Anbieter weitergegeben werden.

Auch hier sprechen die Statistiken eine deutliche Sprache: 2024 waren mehr als 40 % der Hacking-Ansprüche auf externe Anbieter zurückzuführen.

Kundendaten sollten nicht zum Trainieren von KI-Modellen verwendet werden. Sie dürfen nur vom SaaS-Anbieter verarbeitet werden und niemals mit externen Anbietern von KI-Modellen geteilt werden. Alle Eingaben, Ausgaben und Einbettungen müssen innerhalb einer sicheren Infrastruktur geschehen, die vom SaaS-Anbieter betrieben, überwacht und kontrolliert wird. Nur so können Datenhoheit, Datenschutz und Compliance in vollem Umfang gewährleistet werden.

Moderne Plattformen für vernetzte Mitarbeiter lösen dieses Problem, indem sie alle Daten in sicheren Umgebungen wie AWS verarbeiten und die strengen Gesetze zur Datenresidenz einhalten. Da Prompts und Antworten ebenfalls vollständig in der AWS-Umgebung verarbeitet werden, können Hersteller leistungsstarke KI-Funktionen in der Fabrikhalle nutzen und gleichzeitig strenge Vorgaben bezüglich Datenschutz, Kontrolle und Compliance zuverlässig einhalten.

KI-Fehlerminimierung und Sicherheitsmaßnahmen für die Fertigung

In der Fertigung sind Sicherheit und Genauigkeit der KI-Outputs von größter Bedeutung, da Fehler hier schnell zu realen Gefährdungen führen können. Hersteller sollten daher sicherstellen, dass die KI-Antworten auf Sicherheit und Korrektheit geprüft, professionell formuliert und auf den spezifischen Kontext abgestimmt sind. Um das Risiko unsicherer oder falscher KI-Ausgaben in der Fertigung zu minimieren, sollten Unternehmen ein mehrstufiges System aus Leitplanken und Validierungskontrollen einführen:

  • Inhaltsfilterung bei der Eingabe: Einsatz von KI-Guardrails, um unsichere Inhalte zu blockieren, bevor sie in das Modell einfließen. Beispiele sind Filter, die Hassrede, Beleidigungen, Diskriminierungen, sexuelle Inhalte und gewaltverherrlichende Darstellungen erkennen und entfernen.
  • Prompt Injection und Erkennung böswilliger Eingaben: Eingaben werden vorab bewertet, um böswillige Absichten oder Lecks in den System-Prompts zu erkennen.
    Few-Shot-Prompting: Die Prompts enthalten Beispiele für akzeptable/unakzeptable Fragen, um sicheres Verhalten zu fördern.
  • Sichere Verarbeitung von Prompts und Antworten: Verarbeiten Sie alle KI-Interaktionen in einer sicheren, kundenspezifischen Umgebung. Verschlüsseln Sie Protokolle im Ruhezustand sowie bei der Übertragung. Setzen Sie strenge Zugriffskontrollen durch. Dadurch sind Prompts, Antworten und Telemetrie auditierbar, können aber niemals für das Trainieren der KI verwendet werden.
  • Retrieval-Augmented Generation (RAG) für Output-Grounding: Verankern Sie jede KI-Antwort in verifizierten, kundenspezifischen Quell-Inhalten. Ist kein relevanter Kontext vorhanden, konfigurieren Sie das Modell so, dass es „Keine Antwort“ zurückgibt, statt Halluzinationen zu riskieren.
  • Vermeidung von Verzerrungen, Obszönitäten und Scope-Drifts: Integrieren Sie Mechanismen zur Überprüfung der Ausgabe auf unangemessene oder voreingenommene Sprache. Stellen Sie sicher, dass die Antworten auf die Daten des Kunden beschränkt bleiben. Sorgen Sie für professionelle Formulierungen.
  • Human-in-the-Loop (HITL)-Überprüfung: Für sehr kritische Ausgaben, wie beispielsweise Sicherheitsprotokolle oder komplexe Arbeitsanweisungen, sollten Sie einen Arbeitsablauf implementieren, bei dem ein qualifizierter menschlicher Experte die von der KI generierten Inhalte überprüft und genehmigt, bevor sie fertiggestellt werden. So erhalten Sie ein Sicherheitsnetz, um kleinste Fehler oder kontextbezogene Nuancen zu erkennen, die automatisierten Systemen leicht entgehen.
  • Mehrsprachigkeit und kulturelle Sicherheit: Passen Sie die Antwortsprache automatisch an die Eingabe an. Nutzen Sie bei unterschiedlichen Kontexten eine Lokalisierung oder Übersetzung, um Klarheit und kulturelle Relevanz zu wahren.
  • Purple Teaming und interne Tests: Führen Sie regelmäßig spezielle Simulationen gegnerischer Angriffe durch, um den Schutz vor Prompt Injection zu bewerten und zu verbessern.

KI muss unternehmerische Verantwortung übernehmen – durch Transparenz, Fairness und richtlinienkonforme Antworten

Im Zeitalter der eingebetteten KI liegt die Verantwortung für die Grundsätze der Unternehmensführung eindeutig beim SaaS-Anbieter. Kunden in anspruchsvollen Umgebungen wie der Fertigung erwarten mehr als nur leistungsstarke Funktionen. Sie verlangen eine sichere, konforme und vertrauenswürdige KI. Diese Verantwortung umfasst eine nachprüfbare Grundlage für Sicherheit und Datenintegrität, die durch strenge, unabhängige Audits validiert wird, und die Einhaltung branchenüblicher Best Practices.

Echte KI-Governance reicht jedoch tief in das Produkt selbst hinein. Der Anbieter ist verpflichtet, technische Leitplanken („Guardrails“) einzubauen, die Transparenz, Fairness und die Einhaltung etablierter Betriebs- und Sicherheitsstandards gewährleisten. Systeme, die Retrieval-Augmented Generation (RAG) verwenden, um KI-Antworten ausschließlich auf die verifizierte Wissensbasis eines Kunden zu stützen, verhindern gefährliche „Halluzinationen“ und stellen sicher, dass alle Ausgaben kontextabhängig korrekt sind.

Für den Anbieter ist die Übernahme dieser Verantwortung ein strategischer Auftrag. Durch die proaktive Einbindung ethischer Kontrollen und einer soliden Governance wird aus einem einfachen Werkzeug ein vertrauenswürdiges, strategisches Gut. Auf diese Weise reduzieren SaaS-Anbieter nicht nur die Rechts- und Reputationsrisiken ihrer Kunden. Sie schaffen auch das Vertrauen, das für die sichere, nachhaltige Einführung und für langfristige operative Exzellenz unerlässlich ist.

Eine sicherere und intelligentere Zukunft für KI in der Fertigung

Die Integration von KI bietet der Fertigungsindustrie immense Vorteile – von optimierten Abläufen bis zur Befähigung ganzer Belegschaften. Doch mit diesem Versprechen gehen auch erhöhte Risiken einher.

Da Fabriken und Fertigungsprozesse zunehmend vernetzt und intelligenter werden, müssen Hersteller und ihre Lösungsanbieter dafür sorgen, dass die richtigen Prozesse vorhanden sind. Nur so können sie Cyberbedrohungen und Datenschutzrisiken abschwächen und effektiv auf ethische Herausforderungen reagieren.

Wenn Hersteller fortschrittliche Technologien für vernetzte Mitarbeiter einführen, die der Datensicherheit Priorität einräumen, robuste Cybersicherheitsprotokolle implementieren und KI-Antworten auf Sicherheit und Fairness prüfen, können sie die wachsenden Anwendungsfälle für KI in der Fertigung sicher nutzen. Dafür muss die KI die Anforderungen der Unternehmensverantwortung widerspiegeln.

Serge Thibault, VP Information Security bei Poka

Serge Thibault, VP Information Security bei Poka, Bild Poka

Serge Thibault leitet den Bereich Informationssicherheit und IT bei einer globalen B2B-SaaS-Plattform, die Unternehmen aus Industrie und Fertigung bedient. Bei Poka spielt er eine Schlüsselrolle bei der sicheren Einführung und Steuerung von KI-Funktionen innerhalb der Plattform. Dabei sorgt er für einen verantwortungsvollen Umgang, Datenschutz und Risikomanagement und fördert gleichzeitig Innovationen.

Weitere Informationen zum Thema:

datensicherheit.de, 15.04.2026
Januskopf KI: Förderer und Zerstörer der IT-Sicherheit

datensicherheit.de, 12.04.2026
KI-Verordnung: Konkretisierung der Transparenzpflichten für Unternehmen

]]>
https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit/feed 0