Saarbrücken

„Pheme“-mometer: Forscher arbeiten am Tweet-Lügendetektor

„Meme“ nennen sich Internet-Hypes, die oft spielerisch mit einem Thema umgehen. „Pheme“ nennt ein Verbund von Wissenschaftler es, wenn dabei Gerüchte geschürt werden – und arbeitet an einem Lügendetektor für solche Fälle.

Lesezeit: 2 Minuten
Anzeige

Von unserem Redakteur Lars Wienand

Wie vertrauenswürdig ist eine getwitterte Information? Was ist dran an einem Facebook-Posting? Ein EU-Forschungsprojekt arbeitet an einem automatischen Analyseverfahren für den Wahrheitsgehalt von viral verbreiteter Information in sozialen Netzwerken – eine Art Tweet-Lügendetektor für Social Media. „Da wird aus einer Mücke rasch auch mal ein Elefant – oder aus einem Nieser die Angst vor einer globalen Pandemie“, erklärt der Wiener Wissenschaftler Arno Scharl. Medizinische Informationssysteme und digitaler Journalismus sind auch die ersten Testgebiete.

Die größte Herausforderung bei dem Projekt ist zugleich auch Teil der Lösung: die gigantische Menge an Daten, die Fülle von Nachrichten. Ziel ist, dem vierten „V“ von Big Data auf den Grund zu gehen: Neben Menge, Vielfalt und Geschwindigkeit (volumes, variety and velocity) die Wahrhaftigkeit (veracity). Die Analyse großer Datenmengen wird dazu kombiniert mit verschiedenen Aspekten: Zunächst werden die in einer Nachricht enthaltenen Informationen sprachwissenschaftlich ausgewertet -lexikalisch, semantisch und syntaktisch. Das wird abgeglichen mit als zuverlässigen geltenden Datenbanken.

Die Quelle wird automatisch auch in den sozialen Kontext gesetzt und dieser interpretiert und visualisiert: Wer hat sie aufgebracht, wer an wen weitergegeben? Handelt es sich um eine Spekulation, Kontroverse, Missinformation oder Desinformation? Möglicherweise ist dabei auch schon ein neuer Gattungsbegriff geboren: Pheme – für Gerüchte-Meme. So nennt sich das Projekt – auch nach der griechischen Göttin für Ruhm und Gerüchte. Zunächst geht es um Anwendungen im Journalismus und in der Medizin:

Nach der Auswertung durch verschiedene Filter kann am Ende eine Zahl stehen: die Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht. In vielen Fällen wird das Wissen aber noch nicht reichen, dass eine Aussage zu 86,2 Prozent nicht zutrifft. „Am Ende der Verarbeitungskette trifft ein Mensch die Entscheidung, was er damit anfängt“, sagt Sprachtechnologe Thierry Declerck, der an der Saar-Universität und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht.

Die Saar-Universität bringt ihre Kompetenz in Sachen Sprachtechnologie in das Projekt ein: „Wir wollen Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie “scheinbar„ oder “nicht„ automatisch erkennen“, erklärt Declerck in einer Mitteilung. Wenn etwa die Nachricht die Runde macht, dass Londons Wahrzeichen “London Eye„ brennt – das Gerücht gab es während der Unruhen in England 2011 – dann bezieht das System auch Zweifel wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse ein. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar. Allerdings: Was heute ein Gerücht ist und nicht stimmt, kann morgen gültig sein. “Wahrheit ist unbeständig, auch das muss berücksichtigt sein." Gerade bei Todesnachrichten eine Herausforderung.

Am Projekt beteiligt sind drei Forschungseinrichtungen aus Großbritannien, die Unis Saarland und Wien sowie Einrichtungen aus Bulgarien, Spanien, Kenia und der Schweiz. Das Projekt ist auf drei Jahre angelegt, hat ein Gesamtvolumen von rund 4,3 Millionen Euro und wird von der EU mit rund drei Millionen Euro gefördert.

Autor:
Lars Wienand
(Mail, Google+)