Aktuelles, Experten - geschrieben von am Donnerstag, März 19, 2026 9:18 - noch keine Kommentare

Drohender Flickenteppich bei KI-Regeln nach Abstimmung im EU-Parlament

Der TÜV-Verband e.V. kritisiert den Vorschlag, wesentliche Hochrisiko-Anwendungen aus der „KI-Verordnung“ („AI Act“) herauszunehmen und warnt vor mehr Bürokratie für Start-Ups und den Mittelstand sowie vor weniger Sicherheit

[datensicherheit.de, 19.03.2026] In einer aktuellen Stellungnahme kritisiert der TÜV-Verband e.V. den Vorschlag, wesentliche Hochrisiko-Anwendungen aus der KI-Verordnung herauszunehmen – dies führe zu mehr Bürokratie für Start-Ups und den Mittelstand sowie zu weniger Sicherheit. EU-Mitgliedsstaaten und EU-Kommission seien jetzt gefordert, den horizontalen Ansatz des „AI Act“ zu erhalten. Dessen Rückabwicklung durch die Hintertür wäre indes der falsche Weg. Anstatt zentrale Produktbereiche aus dem Rechtsrahmen herauszulösen, braucht es laut dem TÜR-Verband zügig Auslegungsleitlinien der Europäischen Kommission, um Überschneidungen mit sektoralem Recht zu klären und ein hohes Maß an Sicherheit zu gewährleisten.

tuev-verband-joachim-buehler

Foto: © Tobias Koch

Dr. Joachim Bühler: Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht!

Folgenschwerer Kurswechsel würde horizontalen Regulierungsansatz der „KI-Verordnung“ substanziell schwächen

Am 18. März 2026 haben demnach der „Ausschuss für Binnenmarkt und Verbraucherschutz“ (IMCO) und der „Ausschuss für bürgerliche Freiheiten, Justiz und Inneres“ (LIBE) des EU-Parlaments ihre Position zur Anpassung des „EU AI Act“ beschlossen und dabei mehrheitlich für einen sogenannten Sektor-Exit bei der KI-Regulierung gestimmt.

  • Zentrale Hochrisiko-Produktbereiche, z.B. Medizinprodukte, Maschinen und Spielzeuge, sollten laut Forderung der Abgeordneten aus dem unmittelbaren Anwendungsbereich der „KI-Verordnung“ herausgelöst und KI-Anforderungen stattdessen künftig in den jeweiligen sektoralen Rechtsakten geregelt werden.

Aus Sicht des TÜV-Verbands wäre dies ein „folgenschwerer Kurswechsel“, welcher den horizontalen Regulierungsansatz des „AI Act“ substanziell schwächt und das europäische Schutzniveau für Hochrisiko-KI gefährdet.

„KI-Verordnung“ erster umfassender Rechtsrahmen, um Innovation und Schutz zusammenzudenken

„Der ,EU AI Act’ ist als weltweit erster umfassender Rechtsrahmen für Künstliche Intelligenz angetreten, um Innovation und Schutz zusammenzudenken“, erläutert Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. Er warnt: „Wenn sich das Europäische Parlament in den Verhandlungen mit den Mitgliedsstaaten und der EU-Kommission durchsetzt, endet der europäische Weg bei Künstlicher Intelligenz in einer Sackgasse!“

  • Zu Hochrisiko-KI-Systemen zählen Anwendungen, deren Fehlfunktionen oder Fehlentscheidungen erhebliche Folgen für Sicherheit, Gesundheit und Grundrechte haben könnten – zum Beispiel in den Bereichen Medizin, Robotik, Bewerbungsverfahren oder beim Zugang zu wichtigen Dienstleistungen wie Kreditvergaben.

Bühler betont: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden!“

KI-Entwicklung rasanter als mögliche sektorale Regulierung

Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme nicht vereinfachen, sondern zersplittern. Anforderungen an Künstliche Intelligenz (KI) müssten dann in zahlreichen sektoralen Richtlinien und Verordnungen neu erarbeitet und integriert werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen.

  • Ein solcher „Sektor-Exit“ würde zudem die Regulierung von Hochrisiko-KI erheblich ausbremsen. KI-spezifische Anforderungen müssten dann mühsam in zahlreiche sektorale Vorschriften eingearbeitet und laufend nachgezogen werden. Angesichts der Geschwindigkeit technologischer Entwicklungen wäre es kaum möglich, KI-Anforderungen in zahlreichen sektoralen Rechtsakten rechtzeitig anzupassen. Veraltete Vorschriften würden so selbst zum Innovationshemmnis. Ein horizontaler Ansatz hingegen könne mit der Dynamik der KI Schritt halten und zugleich ein hohes Schutzniveau sichern.

„Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen ,Flickenteppich’ mit mehr Aufwand, mehr Unsicherheit und langfristig höheren Belastungen für Unternehmen!“, moniert Bühler daher die drohende Entwicklung.

Europa könnte Einfluss auf globale KI-Standards verlieren

Insbesondere für Hersteller, welche KI in sicherheitskritischen Produkten wie Medizinprodukten, Maschinen oder vernetzten Verbraucherprodukten einsetzen, seien klare und kohärente Regeln sowie deren europaweit einheitliche Umsetzung entscheidend, um Sicherheit, Innovation und Wettbewerbsfähigkeit zusammenzubringen.

  • Der „AI Act“ gelte weltweit als Referenzmodell für vertrauenswürdige KI. Viele internationale Akteure orientierten sich bereits an diesem europäischen Ansatz. Mit einem „Sektor-Exit“ weiche die EU den eigenen KI-Regulierungsansatz auf und verliere an Einfluss auf internationale Standards.

Dies sei nicht nur regulatorisch relevant, sondern auch wirtschaftspolitisch entscheidend. Denn internationale Standards bestimmten, welche Anforderungen sich in globalen Märkten durchsetzen. „Wenn Europa seinen Ansatz bei Hochrisiko-KI verwässert, schwächen wir unseren Einfluss auf Regeln, die morgen weltweit gelten“, gibt Bühler zu bedenken und führt weiter aus: „Und das schwächt auch Europas Wettbewerbsfähigkeit im globalen KI-Wettbewerb.“

Verhandlungen zwischen EU-Parlament und -Mitgliedsstaaten müssen horizontalen Ansatz der „KI-Verordnung“ sichern

Der TÜV-Verband habe bereits gemeinsam mit AlgorithmWatch, AI Policy Lab, ALLAI, BSI – United Kingdom, DEKRA, ForHumanity, Open Knowledge Foundation, The Future Society und TÜV AI.Lab in einem Offenen Brief an die Bundesregierung vor einem „Sektor-Exit“ gewarnt.

  • „Jetzt kommt es in den anstehenden Trilog-Verhandlungen zwischen EU-Parlament und Mitgliedsstaaten darauf an, den horizontalen Ansatz des ,AI Acts’ zu verteidigen und Europas Sicherheits- und Vertrauensversprechen bei Hochrisiko-KI-Systemen nicht preiszugeben“, so Bühler.

Eine Rückabwicklung des „AI Act“ durch die Hintertür wäre der falsche Weg. Bühlers Fazit: „Anstatt zentrale Produktbereiche aus dem Rechtsrahmen herauszulösen, braucht es zügig Auslegungsleitlinien der Europäischen Kommission, um Überschneidungen mit sektoralem Recht zu klären und ein hohes Maß an Sicherheit zu gewährleisten!“

Weitere Informationen zum Thema:

TÜV VERBAND
Über uns

mfm – future at work,
mfm – Interview: Drei Fragen an Joachim Bühler

TÜV VERBAND, Patrick Gilroy, 11.03.2026
Offener Brief: Einheitliche KI-Regeln in Europa sichern Innovation, Sicherheit und Wettbewerbsfähigkeit / Den horizontalen Ansatz des AI Act beibehalten – dazu rufen die Unterzeichner des vorliegenden offenen Briefs mit Blick auf die geplanten Änderungen im Rahmen des „Digital Omnibus“ der EU eindringlich auf

EUR-Lex
Trilog

datensicherheit.de, 12.02.2026
AI Act: Durchführungsgesetz beschlossen / Das Durchführungsgesetz zum „EU AI Act“ legt unter anderem fest, welche Behörden in Deutschland künftig für die Umsetzung, die Aufsicht und Unterstützung von Unternehmen zuständig sind

datensicherheit.de, 31.07.2025
Ein Jahr AI Act: eco mahnt rechtssichere Rahmenbedingungen und politischen Gestaltungswillen an / Vor einem Jahr, am 1. August 2024, ist der europäische „AI Act“ in Kraft getreten – laut eco ein historischer Meilenstein für die globale KI-Regulierung und Grundlage, um KI „Made in Europe“ zum Erfolgsmodell zu machen



Kommentare sind geschlossen.

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung