Das Internet hat die Menschheit zu Beginn des 21. Jahrhunderts in die historisch einmalige Lage versetzt, dass Milliarden ungehinderten Zugang zum geballten Wissen unserer Spezies haben. Das erschließt ganz neue Möglichkeiten, Wissen zu gewinnen und sich weiter zu entwickeln, möchte man meinen. Doch es könnte auch anders kommen: Der US-Schriftsteller und Forscher Franklin Foer warnt
(nicht ohne Grund), dass wir durch Facebook und seine digitalen Geschwister vielleicht sogar verlernen, selbstständig zu denken.
Facebook ist heute für viele Menschen ihre zentrale Nachrichtenquelle. Die Medienunternehmen haben sich dieser Vorliebe angepasst und verbreiten ihre Meldungen längst nicht mehr nur auf Papier, am TV- oder Computerbildschirm oder über das Radio, sondern eben auch via Facebook. ...
Der wahre Herrscher im Social Web sind Algorithmen
Doch Facebook könnte eine ernste Gefahr für unsere Fähigkeit sein, frei zu denken. Diese Warnung spricht der US-Autor Franklin Foer in einem Essay für den britischen
"Guardian" aus. Er glaubt, dass die momentane technologische Entwicklung vor allem den Technologiekonzernen Macht und Wissen verleihe, nicht aber den Menschen, die deren Tools nutzen.
Der wahre Herrscher im Social Web seien nämlich nicht die Nutzer, sondern die Algorithmen der Konzerne, die dort ihre Tools anbieten.
Foer stellt die Frage: Sind wir selbst es, die bestimmen, was wir auf Facebook zu sehen bekommen? Oder sind es doch eher die Unternehmen, die uns in eine Richtung führen, von der sie auf Basis ihrer Daten glauben, sie sei gut für uns?
Facebook bestimmt, was wir auf Facebook sehen
Tatsache ist: Was wir auf Facebook zu sehen bekommen, bestimmt Facebook. Foer: "In Wahrheit ist Facebook ein Gewirr von Regeln und Prozeduren, um Informationen zu sortieren. Regeln, die von der Firma zum Wohle der Firma aufgestellt werden." Zum Wohle der Firma ist es im Falle Facebook, wenn die Nutzer viel Zeit auf Facebook verbringen und entsprechend viel Werbung sehen. Ein Geschäftsmodell, das viele Internetfirmen mit Facebook teilen.
Um dieses Ziel zu erreichen, brauchen Internetfirmen Daten. Viele Daten! Am besten alle Daten, die man über eine Person sammeln kann - "radikale Transparenz des Individuums", wie man es bei Facebook nennt. Viele dieser Daten liefern die User selber. Wer öffentlich seine politischen Präferenzen, seine Religion oder seine sexuellen Vorlieben teilt, braucht sich hinterher nicht wundern, wenn er die passende Reklame dazu zu sehen bekommt.
Den Rest machen die Algorithmen: Was jemand "liked" (⚠), sagt viel über ihn aus. Und auch das soziale Umfeld liefert Facebooks Statistikern Hinweise auf die Psyche des Einzelnen.
All diese Daten verwendet Facebook, um jedem Nutzer seinen eigenen, auf ihn zugeschnittenen "Newsfeed" zu zeigen. Nachrichten, die zu den Likes passen oder im Freundeskreis kursieren, landen eher darin als Informationen, von denen Facebooks Algorithmen glauben, sie würden den User eh nicht interessieren. Die Folge:
"Echokammern", in denen die eigene Meinung immer wieder bestätigt wird und man irgendwann den Eindruck gewinnt, alles was nicht zum eigenen Weltbild passt, müsse eine Lüge sein. Die Folge: Eine polarisierte Gesellschaft, in der ein vorbehaltloser Diskurs zunehmend erschwert wird.
Facebooks Algorithmen können die Welt verändern (oder sie tun es schon)
Doch die Macht der Algorithmen reicht weiter: Foer äußert die begründete Befürchtung, dass Facebook und andere IT-Riesen ihre Macht nutzen könnten, um die öffentliche Meinung zu formen und die Welt nach ihren Vorstellungen zu verändern. Ein Indiz für diese Befürchtung sieht Foer in Facebook-Chef Mark Zuckerberg selbst.
Seinen Mitarbeitern soll er einmal erklärt haben: "Ich glaube, man kann jedes System da draußen nehmen und es viel, viel besser machen als es heute ist." Zuckerberg gehe es also darum, mithilfe der Wissenschaft und Ingenieurskunst nicht nur die IT, sondern auch die Gesellschaft radikal umzubauen.
Facebook führt im großen Stil Sozialexperimente durch
Dass dieses Motto längst gelebt wird, zeigt Facebooks Abteilung für soziale Experimente. Ihr Leiter Cameron Marlow hat über den Datenschatz, mit dem er und seine Forscher arbeiten, gesagt: "Zum ersten Mal haben wir ein Mikroskop, das uns nicht nur das Sozialverhalten auf einer so feinen Stufe beobachten lässt, wie wir das nie zuvor konnten, aber auch die Möglichkeit, Experimente mit Millionen Nutzern zu machen." Wie weit diese Experimente gehen können, hat sich vor drei Jahren gezeigt,
als Facebook erfolgreich die Gemütslage von Nutzern mithilfe der im Newsfeed angezeigten Inhalte veränderte. ...
Quelle ©: Kronenzeitung
Bildquelle ©: Pixabay