Aktuelles, Experten, Studien - geschrieben von dp am Sonntag, April 5, 2026 0:07 - noch keine Kommentare
Kommunikationsbias: Unsichtbare Meinungsverzerrung mittels KI
KI-Systeme, d.h. „Große Sprachmodelle“ wie „ChatGPT“, könnten zu Verzerrung von Perspektiven führen – ein von Europas KI-Regulierung bislang nur teilweise erfasstes Risiko
[datensicherheit.de, 05.04.2026] Aus dem Fachgebiet „Internet Architecture and Management“ der Fakultät IV „Elektrotechnik und Informatik“ der Technischen Universität Berlin (TUB) gibt eine aktuelle Stellungnahme zu bedenken, dass demnach „Große Sprachmodelle“ (LLM) zunehmend darauf Einfluss nehmen, wie Menschen Informationen wahrnehmen und bewerten: Die Studie „Communication Bias in Large Language Models: A Regulatory Perspective“, erschienen im Journal „Communications of the ACM“, zeige nun, dass diese Systeme gesellschaftliche und politische Perspektiven verzerren könnten und analysiere zugleich, „warum die europäische KI-Regulierung dieses Risiko bislang nur teilweise erfasst“.
KI liefert nicht nur Informationen, sondern strukturiert auch, welche Argumente sichtbar werden und welche Deutungen plausibel erscheinen
Die systematische Bevorzugung, Verstärkung oder Ausblendung bestimmter sozialer, kultureller oder politischer Perspektiven in mittels Künstlicher Intelligenz (KI) generierten Antworten bezeichnen Forscher als „Kommunikationsbias“.
- Prof. Dr. Stefan Schmid, Leiter des Fachgebiets „Internet Architecture and Management“ an der TUB und Projektleiter am „Weizenbaum-Institut“, kommentiert: „Sprachmodelle liefern nicht nur Informationen. Sie strukturieren auch, welche Argumente sichtbar werden und welche Deutungen plausibel erscheinen.“ Diese oft subtilen Effekte seien für Nutzer kaum sichtbar und könnten öffentliche Debatten und demokratische Meinungsbildung beeinflussen.
Schmid hat die zugrundeliegende Studie mit Prof. Dr. iur. Adrian Künzler, Professor an der Rechtswissenschaftlichen Fakultät der University of Hong Kong durchgeführt: Zusammen hätten sie untersucht, „wie solche Verzerrungen in ,Großen Sprachmodellen‘ entstehen und welche Herausforderungen sich daraus für Regulierung und Steuerung ergeben“.
„Kommunikationsbias“ ein strukturelles KI-Thema an der Schnittstelle Technikdesign-Marktstruktur-Regulierung
Die Autoren identifizierten nach eigenen Angaben mehrere Ursachen für kommunikative Verzerrungen in „Großen Sprachmodellen“. Eine wichtige Rolle spielten Trainingsdaten, in denen bestimmte Perspektiven stärker vertreten seien als andere. Auch Entscheidungen beim Training und Feintuning der Modelle beeinflussten die Bevorzugung gewisser Argumentationsmuster.
- Hinzu komme eine weitere Eigenschaft vieler Sprachmodelle: Diese neigten dazu, sich an Erwartungen oder Positionen der Nutzer anzupassen – ein in der Forschung als „Sycophancy“ bezeichneter Effekt. Da diese Einflüsse häufig kontextabhängig und schwer messbar seien, ließen sich solche Verzerrungen bislang nur begrenzt systematisch erfassen.
Für ihre Studie verbinden Schmid und Kuenzler technische, rechtliche und ordnungspolitische Perspektiven. Sie ordnen bestehende Forschung zu politischen Verzerrungen, Polarisierung und „Sycophancy“ in Sprachmodellen ein und analysieren zentrale europäische Regelwerke – den „AI Act“, den „Digital Services Act“ (DSA) und den „Digital Markets Act“ (DMA). Ihr Befund: „,Kommunikationsbias’ ist kein Randphänomen, sondern ein strukturelles Thema an der Schnittstelle von Technikdesign, Marktstruktur und Regulierung!“
KI-Regulierung der EU greift bislang nur begrenzt
Nach Einschätzung der beiden Autoren setzen die bestehenden europäischen Regelwerke zwar wichtige Standards für Transparenz, Sicherheit und Rechenschaft. Die kommunikative Wirkung „Großer Sprachmodelle“ werde jedoch bislang meist nur indirekt adressiert. Sie betonen zudem, dass diese zunehmend als eigenständige Untergruppe von KI-Systemen zu betrachten seien.
- Gerade weil sie für viele Nutzer die unmittelbare Schnittstelle zur KI bildeten, könnten sie nicht nur öffentliche Debatten, sondern auch persönliche Entscheidungen in Bereichen wie Gesundheit, Finanzen und Politik beeinflussen. Nach Auffassung der Forscher erfassen die bestehenden Regelwerke dieses Risiko bislang nur unzureichend, „insbesondere soweit es um den Einfluss auf grundlegende Weltbilder, soziale Perspektiven und politische Entscheidungsprozesse geht“.
Der „AI Act“ konzentriere sich vor allem auf Pflichten entlang der Entwicklungs- und Bereitstellungskette von KI-Systemen. Der „Digital Services Act“ greife insbesondere dort, wo bereits konkrete systemische Risiken oder problematische Inhalte sichtbar würden. „Kommunikationsbias“ erscheine damit eher als Nebenfolge anderer Regulierungsmechanismen denn als eigenständiges Problem öffentlicher Kommunikation.
Gefahr der Marktkonzentration: Es gilt KI-Vielfalt, -Nachvollziehbarkeit und -Wettbewerb technisch, regulatorisch und institutionell mitzudenken
Hinzu komme die zunehmende Marktkonzentration im Bereich „Großer Sprachmodelle“. Wenn wenige Unternehmen zentrale Modelle, Schnittstellen und Datenzugänge kontrollierten, könnten sich bestimmte kommunikative Muster besonders stark durchsetzen. Aus Sicht der Autoren muss deshalb neben der Inhalts- und Sicherheitsregulierung auch die Wettbewerbsordnung stärker in die Steuerung von KI einbezogen werden.
- „Wer Risiken durch Sprachmodelle wirksam begrenzen will, darf nicht nur auf Verbote oder Einzelfallmoderation setzen“, betont Künzler. Er führt weiter aus: „Es braucht ein ,Informationsökosystem’, in dem Vielfalt, Nachvollziehbarkeit und Wettbewerb technisch, regulatorisch und institutionell mitgedacht werden.“
Die Studie plädiert für einen breiteren Regulierungsansatz. Dazu gehörten Vorgaben entlang der gesamten Entwicklungs- und Nutzungskette, überprüfbare Aufsichts- und Moderationsmechanismen, mehr Wettbewerb im Markt für KI-Systeme sowie eine technische Gestaltung, die Vielfalt und Transparenz gezielt stärkt. Die Autoren verweisen unter anderem auf „regelmäßige Audits, geeignete Benchmarks zur Untersuchung kommunikativer Verzerrungen, größere Transparenz über Trainingsdaten und Modellverhalten sowie wirksame Korrekturmöglichkeiten nach der Markteinführung“. Ziel sei ein digitales Kommunikationsumfeld, welches „Verzerrungen begrenzt und eine vielfältige öffentliche Debatte unterstützt“.
Weitere Informationen zum Thema:
TECHNISCHE UNIVERSITÄT BERLIN
Campus Berlin-Charlottenburg-Wilmersdorf – Campus der kurzen Wege
TU TECHNISCHE UNIVERSITÄT BERLIN
Fachgebiet für Internet Architecture and Management / Team
THE UNIVERSITY OF HONG KONG, FACULTY OF LAW
Prof. Adrian Kuenzler – Associate Professor
Cornell University, arXiv, 29.11.2025
GermanPartiesQA: Benchmarking Commercial Large Language Models and AI Companions for Political Alignment and Sycophancy / Jan Batzner & Volker Stocker & Stefan Schmid & Gjergji Kasneci / 8th AAAI/ACM Conference on AI, Ethics, and Society (AIES), Madrid, Spain, October 2025
datensicherheit.de, 27.10.2025
TU-Berlin-Studie: Menschen könnten KI-Entscheidungen verschlimmbessern / Eine neue Studie der TU Berlin zeigt auf, warum Mensch und Maschine bisher noch kein gutes Team sind
Aktuelles, Experten, Studien - Apr. 5, 2026 0:07 - noch keine Kommentare
Kommunikationsbias: Unsichtbare Meinungsverzerrung mittels KI
weitere Beiträge in Experten
- Finnlands Weg der NIS-2-Umsetzung: Pragmatische Lösungen und Bürokratie-Vermeidung
- Quantencomputing: Hohe Erwartungen bei deutschen Unternehmen – mit bisher wenig Einsatz
- Starthilfe Datenschutz: BlnBDI bietet Berliner Startups, Kleinunternehmen und Vereinen kostenlose Schulungen an
- Durchführungsgesetz zur EU-Cyberresilienz-Verordnung: TeleTrusT-Stellungnahme zum BMI-Referentenentwurf
- Digitaler Druck: Trinkgeld per Terminal bei Verbrauchern umstritten
Aktuelles, Branche, Studien - Apr. 4, 2026 0:12 - noch keine Kommentare
Datensouveränität gefährdet – jedes dritte Unternehmen 2025 von einem Vorfall betroffen
weitere Beiträge in Branche
- Automatisierte Zertifizierungen für KI-Compliance: Unternehmen sollten genau hinschauen, statt blind zu vertrauen
- Wozu Einbruch in Unternehmens-Netzwerke, wenn es auch per Login geht
- Ohne regelmäßigen Test ihrer Backups wandeln Unternehmen am Abgrund
- World Backup Day: Backups verhindern, dass aus einem schlechten Tag ein katastrophaler wird
- NIS2 im Aufsichtsrat: Woran sich Gremien künftig messen lassen müssen
Aktuelles, A, Experten, Service, Wichtige Adressen - Jan. 13, 2026 1:08 - noch keine Kommentare
Registrierung bei ELEFAND: Krisen- und Katastrophenvorsorge bei Auslandsaufenthalten
weitere Beiträge in Service
- DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen


