Aktuelles, Experten, Studien - geschrieben von dp am Montag, Oktober 27, 2025 0:53 - noch keine Kommentare
TU-Berlin-Studie: Menschen könnten KI-Entscheidungen verschlimmbessern
Eine neue Studie der TU Berlin zeigt auf, warum Mensch und Maschine bisher noch kein gutes Team sind
[datensicherheit.de, 27.10.2025] Die Technische Universität Berlin (TUB) hat in ihrem neuen Positionspapier „Why Highly Reliable Decision Support Systems Often Lead to Suboptimal Performance and What We Can Do About it“ ganz offensichtlich ein unbequemes Ergebnis zusammengefasst: Mensch-KI-Teams treffen demnach oft schlechtere Entscheidungen als die Künstliche Intelligenz (K0)I allein. „Was paradox klingt, zeigt sich in vielen Feldern wie Radiologie, Sicherheitstechnik oder Prozessüberwachung.“ Je zuverlässiger die Systeme seien, desto größer sei die Gefahr, dass Menschen die korrekten Empfehlungen der KI überstimmten oder ignorierten.
Zuverlässigkeit moderner KI wird unterschätzt
Die Ursachen seien vielfältig, zwei aber würden herausstechen. Erstens: Menschen wollten ihrer Rolle als Entscheider gerecht werden. „Wer nur abnickt, fühlt sich überflüssig und greift ein, auch wenn das System recht hat.“ Zweitens: Die Zuverlässigkeit moderner KI werde unterschätzt. Seltene Fehler erschienen überbewertet, während die hohe Gesamtleistung kaum wahrgenommen werde.
- So entstehe ein Muster, welches die Autoren der TUB in zahlreichen Studien beobachtet hätten: „Menschen greifen unnötig ein und verschlimmbessern so die Gesamtleistung“, kommentiert Dr. Tobias Rieger, Psychologe am Fachgebiet „Handlungs- und Automationspsychologie“ der TUB und Erstautor des Positionspapiers.
So überschrieben Radiologen korrekte Befunde, weil sie ihrer Rolle als finale Entscheider gerecht werden wollten – und am Flughafen entschieden Gepäck-Screener zwar besser mit KI-Assistenz, jedoch häufig auch nicht so gut wie das System allein.
Konflikt mit KI-Regulierung der EU
Brisant sei dies auch mit Blick auf das EU-Gesetz zur KI-Regulierung („AI Act“). Dieses fordere „wirksame menschliche Aufsicht“ für Hochrisiko-Anwendungen. „Doch wie soll ein Radiologe oder eine Personalabteilung Verantwortung übernehmen, wenn die Maschine statistisch klar überlegen ist?“ Wenn Menschen systematisch schlechter entschieden als die KI, stelle sich die Frage, wie Aufsicht in der Praxis gestaltet werden könne, ohne die Gesamtleistung zu verschlechtern.
- „Welche Lösungen sind denkbar?“ Ein Weg ist laut den Forschern mehr Transparenz. Doch klassische Ansätze der „erklärbaren KI“ reichten nicht: Zu wissen, was ein „tiefes neuronales Netzwerk“ ist, nütze dem Radiologen wenig.
Stattdessen müsse es um verhaltensleitende Erklärungen gehen. Systeme sollten ihre Stärken und Schwächen klar kommunizieren, zum Beispiel: „Bei dieser Patientengruppe ist meine Prognose für eine Krebserkrankung besonders zuverlässig.“ So wüssten Nutzer, „wann Zustimmung angebracht ist und wann sich ein kritischer Blick lohnt“.
Der Weg zur Synergie: Spätere KI-Nutzer bereits in ihre Entwicklung mit einbinden
Noch weiter reichten sogenannte adaptive Konzepte. „Die Maschine könnte lernen, wo der Mensch stark ist und ihm in diesen Fällen die Entscheidung überlassen.“ Umgekehrt könnte sie nur bei Unsicherheiten Empfehlungen geben.
- „Das Ziel ist eine echte Synergie, in der Mensch und Maschine sich sinnvoll ergänzen. Dafür gibt es keine One-Size-Fits-All-Lösung, sondern es braucht maßgeschneiderte Ansätze für unterschiedliche Anwendungsfelder“, unterstreicht Rieger. Deswegen sollten die späteren KI-Nutzer bereits in ihre Entwicklung mit eingebunden werden.
Bis dahin sei es noch ein weiter Weg. Doch das TUB-Positionspapier mache deutlich: Der Schlüssel liege nicht darin, Menschen aus dem Prozess zu drängen, sondern Systeme so zu gestalten, dass beide Partner einander ergänzten. „Erst dann können Mensch und KI gemeinsam tatsächlich bessere Entscheidungen treffen!“
Weitere Informationen zum Thema:
IEEEXplore, Oktober 2025
Why Highly Reliable Decision Support Systems Often Lead to Suboptimal Performance and What We Can Do About it
TECHNISCHE UNIVERSITÄT BERLIN
Dr. Tobias Rieger
TECHNISCHE UNIVERSITÄT BERLIN
Handlungs- und Automationspsychologie: Forschungsprofil / Mensch-KI- und Mensch-Automation-Interaktion
datensicherheit.de, 05.02.2025
AI Act der EU verbietet bestimmte KI-Systeme und verpflichtet zur -Kompetenz / Die neue Regelung setzt das Verbot bestimmter KI-Systeme durch und legt Anforderungen an die -Kenntnisse der Beschäftigten fest
datensicherheit.de, 04.02.2025
„AI Act“: Seit dem 2. Februar 2025 weitere Regelungen der europäischen KI-Verordnung in Kraft / Eigentlich sollte der „AI Act“ für Rechtssicherheit in Europa sorgen – aktuell droht das genaue Gegenteil, so die Bitkom-Kritik
datensicherheit.de, 03.02.2025
AI Act: eco-Kommentar zum Inkrafttreten – nationale Gesetzgebung muss Vision und Praxis vereinen! / Ab dem 2. Februar 2025 verbietet der „AI Act“ Manipulation durch KI, „Social Scoring“ und biometrische Fernidentifikation in Echtzeit
datensicherheit.de, 28.05.2024
Schatten-KI und EU AI Act: Unternehmen müssen sich den Herausforderungen zeitnah stellen / Philipp Adamidis nimmt Stellung zu Aspekten der erfolgreichen KI-Transformation
Aktuelles, Experten, Studien - Okt. 27, 2025 0:53 - noch keine Kommentare
TU-Berlin-Studie: Menschen könnten KI-Entscheidungen verschlimmbessern
weitere Beiträge in Experten
- BKA: Innere Sicherheit erfordert entschlossene Bekämpfung Organisierter Kriminalität
- ePA-Kritik: Freie Ärzteschaft moniert drohende internationale Verfügung über Krankheitsdaten
- Handwerksunternehmen in Deutschland: Über die Hälfte nutzt Social Media
- Digitalisierung: Museen in den Fängen der Überwachungsökonomie
- KFSHRC ushers in a new era in neurosurgery: World’s first robot-assisted intracranial tumour resection performed in Riyadh
Aktuelles, Branche - Okt. 27, 2025 0:41 - noch keine Kommentare
AWS-Probleme: Unternehmen tun sich noch schwer mit Multi-Cloud-Arbitrage
weitere Beiträge in Branche
- Digitalisierung in Wochen statt Jahren: Geschwindigkeit neuer Maßstab für digitalen Erfolg
- Trick and Threat: Halloween auch in Deutschland Köder für saisonalen Internetbetrug
- Wenn die Software-Lieferkette ins Visier gerät: Effektives Schwachstellen-Management vorhalten
- AWS-Störungen mahnen zur Wahrung der Digitalen Souveränität
- Amazon Web Services gestört: ISACA kommentiert AWS-Probleme
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“



Kommentieren