Überraschung: Facebook sagt, dass Facebook A-Okay für Nachrichten!

Eine Studie wurde letzte Woche in der Zeitschrift veröffentlicht Wissenschaft Dies zeigt, dass der Facebook-Algorithmus nicht die Ursache für eine hypothetische „Filterblase“ ist. Hier sehen die Menschen nur Nachrichten, die mit ihren politischen Neigungen in einem sozialen Netzwerk übereinstimmen.

Das einzige Problem? Es handelt sich um eine Facebook-Studie, die von Personen durchgeführt wurde, die bei Facebook beschäftigt sind.

Sollten wir wirklich so überrascht sein, dass Facebooks eigene Forscher die Auswirkungen der Manipulationen der Newsfeeds von Menschen durch ihr Unternehmen minimieren?

Die Studium, Kontakt zu ideologisch unterschiedlichen Nachrichten und Meinungen auf Facebook, von Eytan Bakshy und Kollegen bei Facebook wurde letzte Woche in veröffentlicht Wissenschaft. Wie könnte diese Studie in der renommierten Zeitschrift veröffentlicht werden? Wissenschaft? 1 Soll Peer-Review nicht eigennützige Studien von Unternehmen erfassen, die nur zeigen, was das Unternehmen von den Daten erwarten kann?

Man muss sich fragen, wie Peer-Reviewer diese Studie in der veröffentlichten Form bestanden haben. Viele Kritiken der Studie wurden bereits veröffentlicht, daher werde ich nur kurz auf die von anderen angeführten Probleme eingehen. Diese Kritik von Christian Sandvig fasst das Problem zusammen, wie Facebook-Forscher ihre eigenen Erkenntnisse in der veröffentlichten Studie gesponnen haben:

Zum Thema Vergleiche heißt es in der Studie weiter:

„Wir stellen schlüssig fest, dass… individuelle Entscheidungen mehr als Algorithmen die Exposition gegenüber einstellungsintensiven Inhalten begrenzen.“

"Im Vergleich zum algorithmischen Ranking wirkten sich die Entscheidungen der Einzelpersonen über den Konsum stärker aus."

Alarmglocken läuten für mich. Die Tabakindustrie hat vielleicht einmal eine Studie finanziert, die besagt, dass Rauchen weniger gefährlich ist als Kohlebergbau, aber hier haben wir eine Studie über das Rauchen von Bergarbeitern. Wahrscheinlich, während sie in der Kohlenmine sind.

Was ich damit sagen will ist, dass es kein Szenario gibt, in dem „Benutzerentscheidungen“ gegen „den Algorithmus“ abgewogen werden können, weil sie zusammen auftreten […]. Benutzer wählen aus, was der Algorithmus bereits für sie gefiltert hat. Es ist eine Sequenz.

Ich denke, die richtige Aussage zu diesen beiden Dingen ist, dass sie beide schlecht sind - sie erhöhen beide die Polarisation und Selektivität. Wie ich oben sagte, scheint der Algorithmus die Selektivität der Benutzer geringfügig zu erhöhen.

In der Tat würden Sie denken, dass die Facebook-Forscher, die, wie Sie wissen, bei Facebook arbeiten, verstehen würden, dass Sie den Algorithmus nicht herausziehen und vom Verhalten des Benutzers trennen können, da einer vom anderen abhängig ist. Ohne Manipulation des Algorithmus (den Facebook-Forscher Adam Kramer herausgefunden hat, ist es nicht gut, ohne vorher die Einwilligung des Benutzers einzuholen) kann man nicht wirklich sagen, warum Benutzer mehr auf eine Sache als auf etwas anderes klicken.

Diese Überprüfung der Facebook-Studie von Zeynep Tufekci, Professor an der Universität von North Carolina, Chapel Hill, schrieb jedoch, dass die tatsächlich gefundenen Daten der Studie im Anhang der Studie vergraben sind:

Je höher der Link, desto wahrscheinlicher (viel wahrscheinlicher) wird er angeklickt. Sie leben und sterben durch Platzierung, die durch den Newsfeed-Algorithmus bestimmt wird. (Der Effekt ist, wie Sean J. Taylor richtig bemerkt, eine Kombination aus Platzierung und der Tatsache, dass der Algorithmus errät, was Sie möchten).

Dies war größtenteils bereits bekannt, aber es ist großartig, dass es von Facebook-Forschern bestätigt wurde (die Studie wurde ausschließlich von Facebook-Mitarbeitern verfasst). […]

Eine neuartige Erkenntnis ist, dass der Newsfeed-Algorithmus (bescheiden) unterschiedliche Inhalte unterdrückt, und eine andere entscheidende und ebenfalls neuartige Erkenntnis ist, dass die Platzierung im Feed (stark) Einfluss auf die Klickraten hat.

Facebook zeigt Ihnen Nachrichten an, die Sie mit größerer Wahrscheinlichkeit lesen (weil dies mit Ihrer politischen Sichtweise übereinstimmt). Je höher diese in Ihrem Newsfeed angezeigt werden, desto wahrscheinlicher ist es, dass Sie darauf klicken.

Mit anderen Worten, die Manipulation Ihres Newsfeeds durch Facebook ist weiterhin ein wichtiger Faktor, um zu bestimmen, auf was Sie wahrscheinlich klicken werden. Und sie manipulieren diesen Feed weiterhin, um Ihnen politisch ausgerichtete Nachrichten mehr zu zeigen, als wenn ihr Algorithmus keinerlei Vorurteile enthält.

Und wie Tufekci wichtig bemerkt, war dies eine winzige, ausgewählte Gruppe von Facebook-Nutzern, die untersucht wurden, nur weil es für die Facebook-Forscher bequemer (und billiger) war, sie zu untersuchen. Sie haben nur Benutzer betrachtet, die ihre politische Zugehörigkeit zu Facebook selbst identifiziert haben und sich regelmäßig beim Dienst anmelden (etwa 4 Prozent aller Facebook-Nutzer [nur 9 Prozent der Nutzer erklären ihre politische Zugehörigkeit zu Facebook, was bedeutet, dass dies kein Beispiel ist, das Sie verallgemeinern können alles von]). Es sagt nichts über Facebook-Nutzer aus, die ihre politische Zugehörigkeit zu Facebook nicht erklären - das sind die meisten von uns.

Könnte Facebook eine robustere Studie durchgeführt haben? Sicher, aber es wären traditionellere Forschungstechniken erforderlich gewesen, z. B. die Rekrutierung von Umfragen auf der Website in Kombination mit der zufälligen Rekrutierung von E-Mails außerhalb der Website.

Hier ist also die ungefilterte, unvoreingenommene Erkenntnis aus den Daten (mit freundlicher Genehmigung von Tufekci), die die Facebook-Forscher anscheinend gedreht haben, um zu sagen, dass das, was Sie in ihrem Newsfeed sehen, nicht ihre Schuld ist:

Facebook-Forscher zeigen schlüssig, dass der Newsfeed-Algorithmus von Facebook die ideologisch vielfältigen, übergreifenden Inhalte, die Menschen in ihren sozialen Netzwerken auf Facebook sehen, um einen messbaren Betrag verringert. Die Forscher berichten, dass die Exposition gegenüber verschiedenen Inhalten durch den Facebook-Algorithmus für selbst identifizierte Liberale um 8% und für selbst identifizierte Konservative um 5% unterdrückt wird.

Oder, wie Christian Sandvig es ausdrückt: „Der Algorithmus filtert 1 von 20 übergreifenden harten Nachrichten heraus, die ein selbst identifizierter Konservativer sieht (oder 5%), und 1 von 13 übergreifenden harten Nachrichten, die ein selbst identifizierter Liberaler sieht sieht (8%). " Sie sehen weniger Nachrichten, mit denen Sie nicht einverstanden sind und die von Ihren Freunden geteilt werden, da der Algorithmus sie Ihnen nicht anzeigt.

Leider außerhalb der New York Times und einige wenige andere Verkaufsstellen berichteten die meisten Mainstream-Medienseiten nur ohne Skepsis, was die Facebook-Forscher in ihrer Studie behaupteten.

Aber jetzt wissen Sie die Wahrheit - Facebook hat eine kleine, nicht repräsentative Stichprobe untersucht und dann heruntergespielt, was ihre Daten tatsächlich zeigten, um ein Ergebnis hervorzuheben, das für das Unternehmen positiver war. Für mich ist dies ein weiteres Beispiel dafür, dass Facebook-Forscher den Sinn wissenschaftlicher Forschung nicht wirklich verstehen - Wissen mit der Welt zu teilen, die nicht voreingenommen und manipuliert ist.

Zur weiteren Lektüre…

Zeynep Tufekci: Wie der Facebook-Algorithmus die Inhaltsvielfalt (bescheiden) unterdrückt und wie der Newsfeed Ihre Klicks regelt

Christian Sandvig: Die Facebook-Studie "Es ist nicht unsere Schuld"

NY Times: Facebook Polarisieren? Site beginnt sich zu unterscheiden

Fußnoten:

  1. Leider muss ich jetzt eine weitere Zeitschrift zu meiner Liste angesehener wissenschaftlicher Veröffentlichungen hinzufügen, die einer weiteren Prüfung bedürfen. Wie langjährige Leser von World of Psychology wissen, wird diese Liste jedes Jahr länger: Pädiatrie (Pädiatrie veröffentlicht Studien über Technologie, die anscheinend von niemandem überprüft werden, der mit den ursächlichen Zusammenhängen der Grundlagenforschung vertraut ist.), Cyberpsychologie, Verhalten und soziale Netzwerke (Cyberpsychology veröffentlicht offenbar jede Studie über Internetsucht oder soziale Netzwerke, unabhängig von ihrer Qualität.) Und jetzt Wissenschaft. [↩]

!-- GDPR -->