Gegruselt hat es mich schon, als das rauskam - wenn auch nicht so sehr, dass ich mich abgemeldet hätte: Facebook hat bei über 600.000 Menschen die Auswahl der Nachrichten in der Timeline manipuliert. Das Ergebnis: Wem mehr glückliche Nachrichten angezeigt werden, der ist selbst glücklicher. Bedeutet aber auch: Packt man einem Nutzer mehr deprimierende Posts in den Newsfeed, wird er unglücklich. Facebook kann dir also, zugespitzt gesagt, eine Depression verpassen. Und es ist nur ein gedanklicher Katzensprung zu der Vorstellung, dass das Netzwerk so bald auch Einfluss auf Beziehungen oder politische Einstellungen nehmen kann.
Lauren McCarthy gibt sich damit nicht zufrieden. Die Wirkung von Facebook auf unseren Gefühlshaushalt will sie nicht leugnen - aber sie will selbst bestimmen, welche Wirkung das ist. „Warum sollte Zuckerberg entscheiden, wie du dich fühlst?“, fragt sie. “Hol dir die Kontrolle zurück!“ Sie will die böse Macht nutzen und für das Gute einsetzen, sozusagen. Dafür hat sie den „Facebook Mood Manipulator“ programmiert. Eine Browser-Erweiterung, die einen mit einfachen Reglern steuern lässt, welche Gefühle man von seinem Newsfeed vermittelt bekommt. Und zwar mit genau dem gleichen System, das Facebook für sein Experiment genutzt hat. Ich probiere es einen Tag lang aus.
![]()
Ein Regler für bessere Laune?
Gleich nach der Installation wird mir ein kleines Kästchen auf Facebook angezeigt. Es gibt vier Regler, je einen für „positive“, „emotional“, „aggressive“ und „open“. Jeden davon kann ich auf „less“ der „more“ stellen. Ich kann mir als einen Facebook-Gefühls-Cocktail mischen. Ich habe keine Lust, mich aggressiv zu fühlen, ich möchte positiv und offen sein. Also: entsprechende Regler auf „mehr“, die anderen auf „weniger“. Und tatsächlich, mein Newsfeed lädt sich automatisch neu. Folgende Posts zeigt er an:
Erster Gedanke: Der Manipulator filtert alle Posts von echten Menschen aus meinem Newsfeed. Er hinterlässt die der Nachrichtenseiten und Blogs. Zweiter Gedanke: Sexuelle Belästigung, Gewalt und Gentrifizierung in Deptford ist nicht gerade das, was mein Gemüt vor Freude hüpfen lässt.
Auf dem Tablet vergleiche ich, was Facebook mir ohne den Manipulator anzeigen würde. Das Ergebnis ist auf zwei Arten enttäuschend. Zum einen ist da unter den ersten zehn Posts wirklich keiner von echten Menschen (was entweder heißt, ich habe zu wenig Freunde oder zu viele Nachrichtenseiten abonniert). Zum anderen ergibt die Auswahl der Posts, die der Manipulator rausfiltert, keinerlei Sinn. Nicht angezeigt werden mir: ein Posts vom Guardian, „Heavenly nipples celebrates sexual diversity at the Glastonbury“, ein neutraler Artikel von “Psychology Today” und die NEON, die eine dramatisch veranlagte Leserin zitiert, die sich wünscht, nichts mehr zu spüren damit sie wieder atmen kann. Nichts also, was sich von der Auswahl des Manipulators stark unterscheidet.
Ist die Mischung der Gefühle das Problem? Überfordere ich also das Programm? Ich versuche, nur ein Gefühl einzustellen. Und sehe: Es tut sich ohnehin nur etwas, wenn ich den „positive“-Regler bewege. Also alles nur Quatsch?
Ich schreibe Lauren McCarthy eine Mail, der Erfinderin des „Manipulators“. Sie erklärt, dass es sich dabei auch um ein Kunstprojekt handele. Sie will zeigen, wie Algorithmen das bestimmen, was wir zu sehen bekommen - dass wir aber auch so etwas wie eigene Aufmerksamkeits-Filter haben. Warum funktioniert der Manipulator aber nicht? Antwort: Das Programm und der zugrundeliegende Algorithmus könnten leider nicht mit deutscher Sprache arbeiten. Nicht besonders zufriedenstellend, diese Antwort - denn im Test kamen die meisten Posts von englischsprachigen Seiten.
Im Grunde sollten wir uns vermutlich freuen, dass der Mood Manipulator so schlecht funktioniert. Denn wie das Facebook-Experiment basiert es auf dem Textanalyse-Programm LIWC. Ein System, das laut McCarthy für lange Texte und Reden entwickelt wurde. Wenn es für ihren Manipulator nicht funktioniert, dann darf man das wohl für das Facebook-Experiment auch annehmen. Und das wiederum weckt berechtigten Zweifel an dessen Ergebnis. Es gibt also Grund zur Hoffnung, dass auch weiterhin niemand manipuliert, wen wir mögen und was wir wählen. Zumindest nicht mehr als ohnehin schon.
Lauren McCarthy gibt sich damit nicht zufrieden. Die Wirkung von Facebook auf unseren Gefühlshaushalt will sie nicht leugnen - aber sie will selbst bestimmen, welche Wirkung das ist. „Warum sollte Zuckerberg entscheiden, wie du dich fühlst?“, fragt sie. “Hol dir die Kontrolle zurück!“ Sie will die böse Macht nutzen und für das Gute einsetzen, sozusagen. Dafür hat sie den „Facebook Mood Manipulator“ programmiert. Eine Browser-Erweiterung, die einen mit einfachen Reglern steuern lässt, welche Gefühle man von seinem Newsfeed vermittelt bekommt. Und zwar mit genau dem gleichen System, das Facebook für sein Experiment genutzt hat. Ich probiere es einen Tag lang aus.

Ein Regler für bessere Laune?
Gleich nach der Installation wird mir ein kleines Kästchen auf Facebook angezeigt. Es gibt vier Regler, je einen für „positive“, „emotional“, „aggressive“ und „open“. Jeden davon kann ich auf „less“ der „more“ stellen. Ich kann mir als einen Facebook-Gefühls-Cocktail mischen. Ich habe keine Lust, mich aggressiv zu fühlen, ich möchte positiv und offen sein. Also: entsprechende Regler auf „mehr“, die anderen auf „weniger“. Und tatsächlich, mein Newsfeed lädt sich automatisch neu. Folgende Posts zeigt er an:
- This week's “This Is My Next” will tell you which weather app to buy (Irgendwas mit Technik)
- Fortunately, it doesn’t take much to offset the harmful effects of sitting (Irgendwas mit Gesundheit und Bürotätigkeit)
- How Vanessa Feltz’s bravery exposed our shameful culture of victim blaming (Irgendwas mit sexueller Belästigung)
- Irgendwas mit Fußball von der SZ
- The Job Centre in Deptford has been turned into a job centre-themed bar called the job centre (Irgendwas mit Gentrifizierung)
- How Bad Media Coverage Makes Things Worse for Transgender Victims of Violence (Irgendwas mit Gewalt und Medien)
Erster Gedanke: Der Manipulator filtert alle Posts von echten Menschen aus meinem Newsfeed. Er hinterlässt die der Nachrichtenseiten und Blogs. Zweiter Gedanke: Sexuelle Belästigung, Gewalt und Gentrifizierung in Deptford ist nicht gerade das, was mein Gemüt vor Freude hüpfen lässt.
Auf dem Tablet vergleiche ich, was Facebook mir ohne den Manipulator anzeigen würde. Das Ergebnis ist auf zwei Arten enttäuschend. Zum einen ist da unter den ersten zehn Posts wirklich keiner von echten Menschen (was entweder heißt, ich habe zu wenig Freunde oder zu viele Nachrichtenseiten abonniert). Zum anderen ergibt die Auswahl der Posts, die der Manipulator rausfiltert, keinerlei Sinn. Nicht angezeigt werden mir: ein Posts vom Guardian, „Heavenly nipples celebrates sexual diversity at the Glastonbury“, ein neutraler Artikel von “Psychology Today” und die NEON, die eine dramatisch veranlagte Leserin zitiert, die sich wünscht, nichts mehr zu spüren damit sie wieder atmen kann. Nichts also, was sich von der Auswahl des Manipulators stark unterscheidet.
Ist die Mischung der Gefühle das Problem? Überfordere ich also das Programm? Ich versuche, nur ein Gefühl einzustellen. Und sehe: Es tut sich ohnehin nur etwas, wenn ich den „positive“-Regler bewege. Also alles nur Quatsch?
Ich schreibe Lauren McCarthy eine Mail, der Erfinderin des „Manipulators“. Sie erklärt, dass es sich dabei auch um ein Kunstprojekt handele. Sie will zeigen, wie Algorithmen das bestimmen, was wir zu sehen bekommen - dass wir aber auch so etwas wie eigene Aufmerksamkeits-Filter haben. Warum funktioniert der Manipulator aber nicht? Antwort: Das Programm und der zugrundeliegende Algorithmus könnten leider nicht mit deutscher Sprache arbeiten. Nicht besonders zufriedenstellend, diese Antwort - denn im Test kamen die meisten Posts von englischsprachigen Seiten.
Im Grunde sollten wir uns vermutlich freuen, dass der Mood Manipulator so schlecht funktioniert. Denn wie das Facebook-Experiment basiert es auf dem Textanalyse-Programm LIWC. Ein System, das laut McCarthy für lange Texte und Reden entwickelt wurde. Wenn es für ihren Manipulator nicht funktioniert, dann darf man das wohl für das Facebook-Experiment auch annehmen. Und das wiederum weckt berechtigten Zweifel an dessen Ergebnis. Es gibt also Grund zur Hoffnung, dass auch weiterhin niemand manipuliert, wen wir mögen und was wir wählen. Zumindest nicht mehr als ohnehin schon.