August 2011, es brennt in England. In London gehen Jugendliche auf die Straße, es kommt zu Auseinandersetzungen mit der Polizei, in den folgenden Tagen eskaliert die Situation: Brandanschläge, Plünderungen, Chaos. Es machen unglaubliche Nachrichten die Runde, vor allem über Twitter verbreiten sie sich rasant: Jugendliche sind in eine McDonalds-Filiale eingebrochen und braten sich Burger. Randalierer haben Gatter im Zoo von London geöffnet und Raubtiere freigelassen. Chaoten greifen eine Kinderklinik in Birmingham an.
Soziale Netzwerke sind längst zu einer wichtigen Nachrichtenquelle geworden. Viele, vor allem junge Menschen, konsumieren Nachrichten fast ausschließlich über diese Kanäle, und auch für Journalisten sind sie längst nicht mehr wegzudenken. Ob bei Demonstrationen, Großereignissen oder Katastrophen – soziale Netzwerke geben schnellen und unmittelbaren Einblick in das Geschehen. Nur: Es ist halt nicht immer die Wahrheit, was auf Twitter oder Facebook verbreitet wird, und es gibt keine Garantie, dass dort nicht schamlos gelogen, geschönt oder dramatisiert wird. Siehe London: Keines der drei Gerüchte stimmte.
Ein internationales Team von Wissenschaftlern hat jetzt den Auftrag, das zu ändern: Ihr Projekt „Pheme“ ist gerade gestartet, es soll eine Art Lügendetektor für Twitter sein und durch komplexe Big-Data-Analysen Nutzer in die Lage versetzen, den Wahrheitsgehalt von Tweets zu bestimmen. So soll es möglich werden, Falschmeldungen wie die aus London schneller aufzudecken. Das Forschungsvorhaben ist auf drei Jahre angelegt, wird von der EU gefördert und hat ein Gesamtvolumen von 4,3 Millionen Euro. Das klingt nach sehr viel Geld, dafür, dass man ein paar falschen Gerüchten auf die Spur kommen möchte.
Thierry Declerck arbeitet als Sprachtechnologe an der Universität des Saarlandes an Pheme mit, und ihm fällt sofort ein Beispiel ein, das zeigt, warum das Geld gut angelegt ist. „Während des Sturms Sandy an der US-Ostküste hat ein Mitarbeiter der New Yorker Börse die Meldung herausgegeben, dass das Gebäude der Börse unter Wasser stehe. Wenn so etwas nicht sofort korrigiert wird, kann das eine Panik auslösen“, sagt Declerck. Auch für die Verifizierung von Nachrichten aus Krisengebieten wie Syrien wäre Pheme hilfreich. Dort stehen sich feindliche Parteien gegenüber, die ein Interesse haben, ihre eigene Botschaft in die Welt zu twittern, und dabei die Wahrheit verzerren. Eventuell übertreiben sie sogar, ohne es zu wollen, weil sie emotional so tief im Thema drinstecken, dass objektive Aussagen nicht möglich sind.
Das ist eine der Stellen, an der Declerck und seine Kollegen ansetzen wollen. Pheme soll Tweets zunächst zu Themenclustern zusammenfassen und dann auswerten. Dabei kommt die Computerlinguistik ins Spiel, Declercks Spezialgebiet: „Wir können dann automatisch nach Schlüsselwörtern und Satzbau-Patterns suchen und diese deuten.“ So könne man zum Beispiel sehen, ob über das Thema eines Tweets besonders hitzig gestritten wird, ob also eher ein Meinungs-Schlagabtausch stattfindet oder ob es um Fakten geht. Oder ob der Autor in seiner Twitterhistorie generell als Schreihals auftritt oder besonnen. Ob er häufig twittert, ob er von seriösen Medien zitiert wird, ob ihm oft zugestimmt wird, welches Vokabular er verwendet. „Die Gewichtung all solcher Faktoren müssen wir noch ausarbeiten“, sagt Declerck.
Nach der Analyse wird Pheme also kein hundertprozentiges Ja oder Nein ausspucken. Dort wird eher eine Zahl stehen, die bei der Einschätzung helfen kann – eine Wahrscheinlichkeitsprognose für die Wahrheit. „Am Ende muss der Mensch selbst entscheiden“, betont Declerck, das System könne nur eine Hilfestellung geben.
Bei den Unruhen in England hätte das wahrscheinlich gut funktioniert. In Birmingham zum Beispiel hätte Pheme ziemlich schnell die Tweets gefunden, die Zweifel hätten schüren müssen: Eine Krankenschwester schrieb, sie habe ihre Kollegen in der Klinik angerufen, dort sei es völlig ruhig. Und ein spitzfindiger Twitterer merkte an, dass ein Angriff auf das Krankenhaus schon sehr seltsam wäre. Es liege nämlich direkt gegenüber der Polizeizentrale von Birmingham.
Soziale Netzwerke sind längst zu einer wichtigen Nachrichtenquelle geworden. Viele, vor allem junge Menschen, konsumieren Nachrichten fast ausschließlich über diese Kanäle, und auch für Journalisten sind sie längst nicht mehr wegzudenken. Ob bei Demonstrationen, Großereignissen oder Katastrophen – soziale Netzwerke geben schnellen und unmittelbaren Einblick in das Geschehen. Nur: Es ist halt nicht immer die Wahrheit, was auf Twitter oder Facebook verbreitet wird, und es gibt keine Garantie, dass dort nicht schamlos gelogen, geschönt oder dramatisiert wird. Siehe London: Keines der drei Gerüchte stimmte.
Ein internationales Team von Wissenschaftlern hat jetzt den Auftrag, das zu ändern: Ihr Projekt „Pheme“ ist gerade gestartet, es soll eine Art Lügendetektor für Twitter sein und durch komplexe Big-Data-Analysen Nutzer in die Lage versetzen, den Wahrheitsgehalt von Tweets zu bestimmen. So soll es möglich werden, Falschmeldungen wie die aus London schneller aufzudecken. Das Forschungsvorhaben ist auf drei Jahre angelegt, wird von der EU gefördert und hat ein Gesamtvolumen von 4,3 Millionen Euro. Das klingt nach sehr viel Geld, dafür, dass man ein paar falschen Gerüchten auf die Spur kommen möchte.
Thierry Declerck arbeitet als Sprachtechnologe an der Universität des Saarlandes an Pheme mit, und ihm fällt sofort ein Beispiel ein, das zeigt, warum das Geld gut angelegt ist. „Während des Sturms Sandy an der US-Ostküste hat ein Mitarbeiter der New Yorker Börse die Meldung herausgegeben, dass das Gebäude der Börse unter Wasser stehe. Wenn so etwas nicht sofort korrigiert wird, kann das eine Panik auslösen“, sagt Declerck. Auch für die Verifizierung von Nachrichten aus Krisengebieten wie Syrien wäre Pheme hilfreich. Dort stehen sich feindliche Parteien gegenüber, die ein Interesse haben, ihre eigene Botschaft in die Welt zu twittern, und dabei die Wahrheit verzerren. Eventuell übertreiben sie sogar, ohne es zu wollen, weil sie emotional so tief im Thema drinstecken, dass objektive Aussagen nicht möglich sind.
Das ist eine der Stellen, an der Declerck und seine Kollegen ansetzen wollen. Pheme soll Tweets zunächst zu Themenclustern zusammenfassen und dann auswerten. Dabei kommt die Computerlinguistik ins Spiel, Declercks Spezialgebiet: „Wir können dann automatisch nach Schlüsselwörtern und Satzbau-Patterns suchen und diese deuten.“ So könne man zum Beispiel sehen, ob über das Thema eines Tweets besonders hitzig gestritten wird, ob also eher ein Meinungs-Schlagabtausch stattfindet oder ob es um Fakten geht. Oder ob der Autor in seiner Twitterhistorie generell als Schreihals auftritt oder besonnen. Ob er häufig twittert, ob er von seriösen Medien zitiert wird, ob ihm oft zugestimmt wird, welches Vokabular er verwendet. „Die Gewichtung all solcher Faktoren müssen wir noch ausarbeiten“, sagt Declerck.
Nach der Analyse wird Pheme also kein hundertprozentiges Ja oder Nein ausspucken. Dort wird eher eine Zahl stehen, die bei der Einschätzung helfen kann – eine Wahrscheinlichkeitsprognose für die Wahrheit. „Am Ende muss der Mensch selbst entscheiden“, betont Declerck, das System könne nur eine Hilfestellung geben.
Bei den Unruhen in England hätte das wahrscheinlich gut funktioniert. In Birmingham zum Beispiel hätte Pheme ziemlich schnell die Tweets gefunden, die Zweifel hätten schüren müssen: Eine Krankenschwester schrieb, sie habe ihre Kollegen in der Klinik angerufen, dort sei es völlig ruhig. Und ein spitzfindiger Twitterer merkte an, dass ein Angriff auf das Krankenhaus schon sehr seltsam wäre. Es liege nämlich direkt gegenüber der Polizeizentrale von Birmingham.