Aktuelles, Experten - geschrieben von cp am Mittwoch, Februar 12, 2014 20:33 - noch keine Kommentare
Sprachforscher wollen Wahrheitsgehalt von Informationen im Internet sichtbar machen
Zusammenarbeit von Wissenschaftlern verschiedener Fachdisziplinen im Rahmen des Projekts „Pheme“
[datensicherheit.de, 12.02.2014] Ist eine Information im Internet vertrauenswürdig? Damit diese Frage künftig beantwortet werden kann, arbeitet der Saarbrücker Sprachtechnologe Thierry Declerck seit Anfang des Jahres im Rahmen des Projekts „Pheme“ mit Wissenschaftlern verschiedener Fachdisziplinen aus England, Österreich, der Schweiz, Bulgarien, Spanien und Kenia zusammen. Ziel der Forscher ist es, ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Die Ergebnisse werden in zwei Fallstudien getestet, Testgebiete sind Medizinische Informationssysteme und digitaler Journalismus. Das Projekt ist auf drei Jahre angelegt, hat ein Gesamtvolumen von rund 4,3 Millionen Euro und wird von der EU mit rund drei Millionen Euro gefördert.
„Das Wahrzeichen Londons, das London Eye, brennt.“ Ein Satz wie dieser verbreitet sich über Facebook, Twitter und Co. explosionsartig. Aber stimmt er auch? Die Folgen solcher Falschmeldungen sind unberechenbar – je nach Brisanz des Inhalts ist von Gewaltexzessen bis hin zum Einbruch von Aktienmärkten alles möglich. Die Frage der Vertrauenswürdigkeit von Informationen im Netz stellt sich daher immer dringlicher. Auch jeder, der schon nach Krankheitssymptomen gesucht hat, kennt das Problem. Aber wie misst man den Wahrheitsgehalt von Online-Informationen? Und das schnell genug? Gemeinsam mit seinen internationalen Forschungspartnern will der Sprachtechnologe Thierry Declerck hierfür Antworten finden. Die Wissenschaftler arbeiten an einer robusten Methode, die jeweils zuverlässig angibt, wie vertrauenswürdig eine Information ist. „Wir konzentrieren uns dabei auf vier Arten problematischer Informationen: die Spekulation, die kontroverse Diskussion, die Fehlinformation und die gezielte Verbreitung falscher oder irreführender Tatsachen“, erklärt er.
Eine der größten Herausforderungen hierbei ist die Datenflut. „Mehrere tausend Textnachrichten werden jede Sekunde neu eingestellt. Daher wenden wir Methoden an, um große Datenmengen zu verarbeiten, so genannte Big Data-Analysen“, sagt Declerck, der in der Computerlinguistik der Saar-Universität am Lehrstuhl von Professor Hans Uszkoreit und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wir verbinden statistische Methoden mit präzisen sprachwissenschaftlichen Analysen. Die Lösung liegt in der Kombination der verschiedenen Verfahren. Im Projekt arbeiten hierzu Wissenschaftler unterschiedlicher Ausrichtung zusammen“, erläutert er. Computerlinguistische Sprachanalysen werden verknüpft mit Informationen aus sozialen Netzwerken, Inhalte werden mit zuverlässigen Datenbanken abgeglichen, statistisch geprüft und mittels Grafiken ausgewertet. Die Aussage wird gleichsam durch verschiedenste Filter geschickt; am Ende steht eine bestimmte Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht.
Declercks Aufgabe im Projekt ist die Sprachtechnologie. Er baut dabei auf Vorarbeiten im EU-Projekt „TrendMiner“ auf: „Wir haben Methoden entwickelt, die es möglich machen, aus der Datenflut Themen und Trends herauszufischen, die im Internet aktuell diskutiert werden. So lassen sich etwa Stimmungen erkennen.“ Mit Hilfe eines komplexen Systems aus Sprachverarbeitungs-Modulen will der Forscher jetzt die Informationen weiter auswerten, sie von ihrer Bedeutung und von Besonderheiten im Satzbau her erfassen. „Zum Beispiel wollen wir Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie ´scheinbar` oder ´nicht` automatisch erkennen“, sagt Declerck. Im Ausgangsbeispiel mit dem London Eye würde das System die Häufung von Zweifel wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse einbeziehen. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar.
Besonderer Knackpunkt für die Forscher wird die Unbeständigkeit der Wahrheit in unserer realen Welt sein. Was heute wahr ist, kann morgen schon falsch sein: „Der Faktor Zeit spielt eine große Rolle. Zum Beispiel ist eine Aussage der Form ´X ist Präsident des Landes Y` nur so lange wahr, wie der genannte Präsident auch tatsächlich amtiert. Unser System muss sich also ständig anpassen können“, erklärt er. Daher verknüpft er die zu überprüfenden Informationen mit den entsprechenden Daten in zuverlässigen Quellen, z.B. Online-Nachschlagewerken wie DBpedia. „Hinter den Texten solcher Datenbanken liegen verschlüsselte, maschinenlesbare Informationen. Wir nutzen diese derzeit sozusagen als Spielwiese, um Gesetzmäßigkeiten zu finden und neue leistungsfähige Algorithmen zu entwickeln“, sagt der Sprachtechnologe.
Die EU fördert das Projekt „Pheme“ als „Specific Targeted Research Project (STREP)“. Partner im Projekt sind in England die University of Sheffield (Koordinator), das Kings College London, sowie die University of Warwick, in Österreich die Modul Universität Wien, in der Schweiz swissinfo.ch, in Bulgarien Ontotext, in Spanien ATOS Spain SAU, in Kenia Ushahidi und in Deutschland die Universität des Saarlandes.
Weitere Informationen zum Thema:
PHEME: Computing Veracity – the Fourth Challenge of Big Data
About PHEME
Universität des Saarlandes, Allgemeine Linguistik, Projekte
Ongoing Research Projects
Aktuelles, Experten - Okt 11, 2024 19:58 - noch keine Kommentare
Cyber Resilience Act der EU verabschiedet – Fraunhofer IEM nimmt Stellung
weitere Beiträge in Experten
- BigBrotherAwards 2024 an Deutsche Bahn, Karl Lauterbach, Sachsens Innenminister, Shein und Temu sowie Technikpaternalismus
- Berechtigtes Interesse: BfDI begrüßt EDSA-Leitlinien
- Incident Response in Industrie-Unternehmen: Online-Veranstaltung am 16. Oktober 2024
- Cyber-Sicherheit industrieller Anlagen: Internationales OT-Grundsatzpapier veröffentlicht
- BKA-II Entscheidung: BfDI begrüßt Klarheit für geplante Modernisierung polizeilicher Computersysteme
Aktuelles, Branche - Okt 10, 2024 19:38 - noch keine Kommentare
Open Source Software – unbestreitbare Vorteile sowie Risiken
weitere Beiträge in Branche
- Kritische Sicherheitslücken im Linux-CUPS-System erfordern umgehende Maßnahmen
- SBOM: Software-Stücklisten laut ONEKEY-Studie noch immer kein Standard in der Industrie
- Präsidentschaftswahlen in den USA 2024: Wahl-Phishing auf dem Vormarsch
- Zunehmende Bedrohung in der digitalen Welt durch Deepfake-Angriffe
- Microsoft-E-Mails: Tausende verschiedener Fälschungen im Umlauf
Branche, Umfragen - Dez 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren