Interna geleakt Facebook spaltet die Gesellschaft, sagt Facebook-Studie

dj

27.5.2020

Facebook ist voller extremistischer Inhalte.
Facebook ist voller extremistischer Inhalte.
Getty Images

Eine interne Facebook-Studie kam zu dem Schluss, dass die Algorithmen des Social Network die Gesellschaft spalten. Die Facebook-Führung entschied sich, fast nichts dagegen zu unternehmen.

Die Facebook-Algorithmen spalten Menschen und fördern das Wachstum von extremistischen Gruppen auf der Plattform. Zu diesem Schluss kommen nicht etwa die zahlreichen Kritiker des Tech-Giganten, sondern eine interne Facebook-Studie aus dem Jahre 2018, die dem «Wall Street Journal» zugespielt wurde.

«Unsere Algorithmen beuten die Attraktion des menschlichen Gehirns zur Entzweiung aus», heisst es in der internen Studie. Wenn das so weitergehe, würde Facebook seinen Nutzern immer mehr polarisierende Inhalte präsentieren, nur um ihre Zeit auf der Seite zu erhöhen.

Von CEO Mark Zuckerberg herab wurde dann dennoch entschieden, wenig dagegen zu machen. In einem Meeting soll Zuckerberg die Meinung geäussert haben, er verliere das Interesse daran, Facebook im Sinne des gesellschaftlichen Wohls zu ändern. Solche Vorschläge solle man ihm doch nicht mehr vorlegen.

Republikanischer Aktivist treibende Kraft

Treibende Kraft in den Facebook-internen Diskussionen soll der Cheflobbyist des Unternehmens und ehemalige Republikanische Aktivist Joel Kaplan gewesen sein. Bestrebungen, die Diskussionen auf Facebook in zivilisiertere Bahnen zu lenken, wurden von Kaplan laut dem «Wall Street Journal» als «paternalistisch» abgetan.

Joel Kaplan (hinten links mit blauer Krawatte) ist ein enger Freund des jetzigen Supreme Court-Richters Brett Kavanaugh und unterstützte diesen, als er sich vor dem US-Senat gegen Vergewaltigungsvorwürfe wehrte.
Joel Kaplan (hinten links mit blauer Krawatte) ist ein enger Freund des jetzigen Supreme Court-Richters Brett Kavanaugh und unterstützte diesen, als er sich vor dem US-Senat gegen Vergewaltigungsvorwürfe wehrte.
Getty Images

Kaplan glaubte auch, das jegliche Änderungen bei den Facebook-Algorithmen vor allem Nutzer und Seiten der poltischen Rechten benachteiligen würden, da die extreme Rechte auf Facebook deutlich überrepräsentiert war.

Als hochproblematisch erwiesen sich in internen Facebook-Untersuchungen bereits 2016 die meist geschlossenen Gruppen auf der Plattform. So habe 2016 ein Drittel der deutschen, politischen Facebook-Gruppen extremistische Inhalte wie Rassismus enthalten. Noch verheerender für Facebook: 64 Prozent der neuen Beitritte zu einer extremistischen Gruppe erfolgten, nachdem diese einem Nutzer durch die Facebook-Algorithmen empfohlen wurde.



Alles nur «Rosinenpickerei»?

Der frühere Facebook-Sicherheitschef Alex Stamos, der inzwischen eine differenzierte Betrachtung seines Ex-Arbeitgebers entwickelt hat, meint, dass Facebooks Grundproblem darin liegt, dass dieselbe Abteilung sowohl für die Formulierung der Facebook-Richtlinien verantwortlich ist als auch dafür, dass Regierungen glücklich sind:

Und in den USA liegt die politische Macht nunmal gerade bei Trump und seinen Republikanern, weshalb es im wirtschaftlichen Interesse eines Unternehmens liegt, sein Vorgehen deren Vorlieben anzupassen. Facebook selbst sagte dem «Wall Street Journal», dass man seit 2016 «eine Menge» gelernt habe und seine Richtlinien und Handlungen angepasst habe, um schädliche Inhalte zu beschränken. Auf Twitter warf Facebooks «Integritäts-Chef» Guy Rosen der Zeitung «Rosinenpickerei» vor.

So Bilder von Facebook zu Google Photos übertragen

Zurück zur Startseite