Facebook unter Beschuss - mal wieder
Facebook unter Beschuss - mal wiederFoto-Quelle: Alexander Klaus / pixelio.de

Empörung über Online-Netzwerk: Facebook-Nutzer sind unfreiwillige Versuchskaninchen

News Team
Beitrag von News Team

Wer sich bei Facebook anmeldet, will sich mit anderen austauschen und vernetzen. Man will lesen, was die virtuellen Freunde zu sagen haben. Um dann zu reagieren, wie man das bei Freunden so macht: Hat jemand schlechte Nachrichten, dann tröstet man ihn oder schreibt ein paar aufmunternde Worte. Teilt jemand etwas Schönes, Witziges oder Nettes, dann freut man sich mit. Aber was, wenn Facebook uns Einträge unserer Freunde vorenthält? Genau das hat das Netzwerk vor eineinhalb Jahren eine Woche lang bei Hunderttausenden englischsprachigen Nutzern gemacht. Und zeigt damit mal wieder eindrucksvoll: Facebook tut, was es will, ohne Rücksicht auf die Interessen der Nutzer.

Manipulation ohne Wissen der Nutzer


Wie erst jetzt bekannt wurde, hat Facebook die Newsfeeds von 700.000 Nutzerm manipuliert. Das Ziel war herauszufinden, wie sich Emotionen verbreiten. Manche Mitglieder bekamen also vor allem positive Inhalte ihrer Freunde zu sehen, andere die eher negativen Botschaften. Das Ergebnis der Studie: Diejenigen, die eher positive Nachrichten lasen, verbreiteten auch selbst zu eher positiven Inhalten – und umgekehrt. Eine Software analysierte mehr als drei Millionen Einträge und ordnete sie verschiedenen Emotionen zu.

Das Problem daran – und der Grund, warum Facebook nun eine Welle der Welle der Empörung entgegenschlägt: Die Manipulation geschah ohne Wissen der Nutzer. Aber das ist noch nicht alles: Es ist schlichtweg unethisch, heimlich die Emotionen von Menschen beeinflussen zu wollen. „Wir sind Laborratten“, beschwerte sich ein Nutzer auf Twitter, andere wollen das Netzwerk jetzt verlassen.

Facebook verteidigt sich


Facebook rechtfertigt das Experiment damit, dass die Newsfeeds sowieso ständig gefiltert würden, damit niemand von zu vielen Informationen überflutet wird. Die Studie sei wichtig gewesen um zu überprüfen, ob sich bestimmte Nutzer ausgeschlossen fühlen. Zum Beispiel, wenn Freunde immer positiv gestimmt sind, sie selbst aber nicht. Das Netzwerk habe dafür keine Erlaubnis der Mitglieder einholen müssen, die AGBs erlaubten solche Studien.

Letztendlich ist das Vorgehen Facebooks bei der Studie keine Überraschung. Die Mitglieder haben sowieso wenig Wahl, was sie zu sehen bekommen und was nicht. Ein Algorithmus des Netzwerks bestimmt beispielsweise automatisch die „Hauptmeldungen“, die jemand angezeigt bekommt. So werden die Meldungen von Freunden, bei denen man häufiger kommentiert oder auf „Gefällt mir“ klickt, auch häufiger eingeblendet. Die Einträge anderer Freunde dagegen werden erst gar nicht angezeigt. Wie Facebooks Klassifizierung in „wichtig“ oder „unwichtig“ für den Nutzer genau funktioniert, ist das Geheimnis des Unternehmens. Die „Hauptmeldungen“ sind übrigens auch nicht die aktuellsten Meldungen, sondern eine Mischung neuerer und älterer Einträge. Wer diesen Mischmasch nicht sehen will, hat Pech gehabt, zumindest auf der Webseite. In der Smartphone-App kann man – wenn auch sehr versteckt – zu den „neuesten Meldungen“ schalten, bekommt also alle Einträge chronologisch angezeigt.

Facebooks Filterdiktat entmündigt die Nutzer. Es wäre ja noch in Ordnung, wenn die Mitglieder die Wahl hätten. Doch die für die Mitglieder willkürliche Filterung sorgt dafür, dass alle im Extremfall nur das zu sehen bekommen, was sie in ihrer Meinung bestätigt – oder was, wie in der Studie, positive Emotionen erzeugt. Doch das ist eine Verzerrung der Wirklichkeit. Und für die Interaktion der Nutzer untereinander, für die ein Netzwerk ja eigentlich da ist, ist das einfach nur langweilig.