LLM – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Fri, 11 Jul 2025 04:51:10 +0000 de hourly 1 https://wordpress.org/?v=5.6.16 KI-Modelle: BfDI hat öffentliches Konsultationsverfahren gestartet https://www.datensicherheit.de/ki-modelle-bfdi-oeffentlich-konsultationsverfahren https://www.datensicherheit.de/ki-modelle-bfdi-oeffentlich-konsultationsverfahren#respond Fri, 11 Jul 2025 04:51:10 +0000 https://www.datensicherheit.de/?p=48906 Einbindung der Fachöffentlichkeit zur Entwicklung praxisrelevanter Ansätze zur datenschutzkonformen Gewinnung von Trainingsdaten

[datensicherheit.de, 11.07.2025] Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), Prof. Dr. Louisa Specht-Riemenschneider, hat ein Konsultationsverfahren zum datenschutzkonformen Umgang mit personenbezogenen Daten in Modellen Künstlicher Intelligenz (KI) gestartet. Denn KI-Modelle – insbesondere sogenannte große Sprachmodelle (Large Language Modells / LLM) – können demnach personenbezogene Informationen wortgetreu und sinngemäß aus ihren Trainingsdaten wiedergeben. Somit besteht die Gefahr, dass Ergebnisse aus KI-Systemen dementsprechend Rückschlüsse auf bestimmte Personen zulassen. Aufsichtsbehörden weltweit beschäftigt dieses Problem spätestens seit der Veröffentlichung von „ChatGPT“ und der damit einhergehenden massiven Verfügbarkeit neuer KI-Angebote für Verbraucher.

bfdi-louisa-specht-riemenschneider-2025

Foto: Johanna Wittig

Prof. Dr. Louisa Specht-Riemenschneider: Einblicke aus der Praxis versetzen uns in die Lage, bessere datenschutzrechtliche Empfehlungen auszusprechen

KI-Modelle bergen große Herausforderungen für den Datenschutz

„KI-Modelle revolutionieren zahlreiche Branchen und stellen uns zugleich vor große Herausforderungen in Sachen Transparenz, Sicherheit und Datenschutz, erläutert Specht-Riemenschneider.

  • Aus BfDI-Sicht ergeben sich daher auch im Jahr 2025 noch zahlreiche Fragen nach dem Schutz personenbezogener Daten beim Training von KI-Modellen.

Mit einem öffentlichen Konsultationsverfahren möchte die BfDI nun dazu beitragen, „dass praktisches Wissen über KI-Modelle für die aufsichtsrechtliche Bewertung für alle zur Verfügung steht“.

Entwicklung praktikabler datenschutzrechtlicher Ansätze für KI-Modelle

Für die Entwicklung praktikabler und erfolgversprechender datenschutzrechtlicher Ansätze sollten Erfahrungen, Herausforderungen und Lösungen aus der Praxis sichtbar gemacht werden.

  • „Einblicke aus der Praxis versetzen uns in die Lage, bessere datenschutzrechtliche Empfehlungen auszusprechen. Ich möchte unrealistische und unklare Regelungen vermeiden – doch dafür bin ich auf die Mithilfe der Anbieter und Forschenden angewiesen“, betont Louisa Specht-Riemenschneider.

Die BfDI nutze öffentliche Konsultationen auch, um Rechtssicherheit für alle Beteiligten durch Transparenz und Dialog zu gewährleisten.

Weitere Informationen zum Thema:

BfDI Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit
Konsultation zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen / Hier finden Sie alle Informationen zum aktuellen Konsulatationsverfahren der BfDI zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen. Die Frist zur Stellungnahme endet am 10. August 2025.

BfDI Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, 10.07.2025
Konsultation zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit

datensicherheit.de, 10.07.2025
KI droht zur größten Cyberbedrohung zu werden / Ein Grund für die zunehmende Gefährdung durch Cyberkriminalität ist die zunehmende KI-Nutzung durch Angreifer

datensicherheit.de, 18.04.2025
KI-Training mit persönlichen Daten: Meta startet im Mai 2025 / Daten aus Posts, Fotos und Kommentaren der Nutzer von „facebook“ und „Instagram“ sollen zum KI-Training Verwendung finden

datensicherheit.de, 15.08.2020
KI-Training: Künstliche Intelligenz benötigt Daten / Unternehmen erwarten steigenden Bedarf an Trainingsdaten für KI – zwei Drittel benötigen dafür auch personenbezogene Daten

]]>
https://www.datensicherheit.de/ki-modelle-bfdi-oeffentlich-konsultationsverfahren/feed 0
it’s.BB e.V. lädt zu Online-Veranstaltung ein: Sicherheitsfragen im Kontext der LLM-Nutzung https://www.datensicherheit.de/its-bb-e-v-einladung-online-veranstaltung-sicherheitsfragen-kontext-llm-nutzung https://www.datensicherheit.de/its-bb-e-v-einladung-online-veranstaltung-sicherheitsfragen-kontext-llm-nutzung#respond Mon, 03 Mar 2025 20:10:03 +0000 https://www.datensicherheit.de/?p=46457 „Sichere Nutzung von Large Language Models (LLM)“ am 12. März 2025

[datensicherheit.de, 03.03.2025] Das IT-Sicherheitsnetzwerk Berlin-Brandenburg, vertreten durch den it’s.BB e.V., lädt zum „Awareness“-Seminar mit dem Titel „Sichere Nutzung von Large Language Models (LLM)“ ein. Es findet online am 12. März 2025, von 16 bis 17 Uhr, statt.

itsbb-sicher-nutzung-large-language-models

Abbildung: it’s.BB e.V.

LLM-Nutzung berührt verschiedene Aspekte der Datensicherheit

LLM-Nutzung in Unternehmen bietet zahlreiche Vorteile, wirft aber auch Fragen der Sicherheit auf

LLM finden demnach in Unternehmen mittlerweile vielfältige Anwendungen – von der Beantwortung von Kundenanfragen bis zum Wissensmanagement.

Dabei gebe es jedoch zahlreiche Risiken in Bezug auf Datenschutz und den Schutz vertraulicher Informationen. Das bevorstehende Web-Seminar soll aufzeigen, wie LLM sicher betrieben und genutzt werden können.

„Sichere Nutzung von Large Language Models (LLM)“

Web-Seminar am Mittwoch, dem 12. März 2025, 16.00 bis 17.00 Uhr
Das Seminar wird in Zusammenarbeit mit der IHK Berlin organisiert.
Teilnahme kostenlos, Online-Anmeldung erforderlich (s.u.)

Agenda (ohne Gewähr)

16.00-16.10 Uhr Begrüßung
– Alina Strybko, Netzwerkmanagerin it’s.BB e.V.
– Rudolf Schreiner, GF ObjectSecurity OSA GmbH
– Anna Borodenko, Referentin für Digitalisierung und Cyber-Sicherheit, IHK Berlin

16.10-16.45 Uhr

  • „Risiken und Grenzen von Cloud basierten LLM (ChatGPT, DeepSeek)“
  • „Lokales Hosting von LLM“
  • „Optimierte Small Language Models (SLM)“
  • „Einbindung eigener Dokumente mit Retrieval Augmented Generation (RAG)“
  • „Zugriffskontrolle zum Schutz vertraulicher Informationen“

– Rudolf Schreiner, ObjectSecurity OSA GmbH

16.45-17.00 Uhr Fragen / Diskussion / Abschluss

Zur Anmeldung:

eventbrite, it’s.BB e.V. (IT-Sicherheitsnetzwerk Berlin-Brandenburg)
Mittwoch, 12. März / Sichere Nutzung von Large Language Models (LLM)

]]>
https://www.datensicherheit.de/its-bb-e-v-einladung-online-veranstaltung-sicherheitsfragen-kontext-llm-nutzung/feed 0