Wie die Squishy-Ethik von Facebook sie in Schwierigkeiten brachte

Ah, wie schnell treten die Leute zurück, wenn sie dabei erwischt werden, etwas zu tun, das etwas weniger als transparent ist. Und vielleicht etwas ein bisschen ... matschig, ethisch gesehen.

Das ist es, was Facebook "Datenwissenschaftler" Adam D.I. Kramer war am Sonntag dabei, als er ein Status-Update auf seiner eigenen Facebook-Seite veröffentlichte, um zu erklären, warum Facebook ein schlechtes Experiment durchführte und - mehr als üblich - manipulierte, was die Leute in ihrem Newsfeed sahen.

Schauen wir uns für etwas Humor am Dienstagmorgen an, was Kramer am Sonntag gesagt hat und was er in der Studie geschrieben hat.

Beginnen wir mit der Untersuchung der proklamierten Motivation für die Studie, die jetzt von Kramer enthüllt wurde:

Wir hielten es für wichtig, die allgemeine Sorge zu untersuchen, dass das Posten positiver Inhalte bei Freunden dazu führt, dass sich Menschen negativ fühlen oder ausgelassen werden. Gleichzeitig befürchteten wir, dass die Negativität von Freunden dazu führen könnte, dass Menschen Facebook nicht besuchen.1

Zu welchem ​​Ende? Würden Sie den Newsfeed noch weiter manipulieren und den Eindruck erwecken, dass das Leben eines jeden eine Kirsche auf einem Eisbecher war, und die Anzeige von negativem Inhalt reduzieren?

Es macht wenig Sinn, dass sich ein gewinnorientiertes Unternehmen darum kümmert, es sei denn, es könnte ein umsetzbares Ergebnis erzielen. Und jedes umsetzbare Ergebnis dieser Studie würde Facebook noch weniger mit der realen Welt verbunden erscheinen lassen als heute.2

In der Studie (Kramer et al., 2014) behaupteten die Forscher, ihr Experiment sei umfassend und manipulativ:

Wir zeigen über ein massives (N = 689.003) Experiment auf Facebook…

Das Experiment manipulierte das Ausmaß, in dem Personen (N = 689.003) in ihrem Newsfeed emotionalen Ausdrücken ausgesetzt waren. […] Zwei parallele Experimente wurden für positive und negative Emotionen durchgeführt: Eines, bei dem die Exposition gegenüber dem positiven emotionalen Inhalt von Freunden in ihrem Newsfeed verringert wurde, und eines, bei dem die Exposition gegenüber negativem emotionalem Inhalt in ihrem Newsfeed verringert wurde
reduziert.

Unter diesen Bedingungen hatte jeder emotionale Beitrag zwischen 10% und 10%, wenn eine Person ihren Newsfeed geladen hat, Beiträge, die emotionalen Inhalt der relevanten emotionalen Wertigkeit enthielten
90% ige Chance (basierend auf ihrer Benutzer-ID), für diese bestimmte Anzeige nicht in ihrem Newsfeed enthalten zu sein.

Wenn Sie Teil des Experiments waren, hatten Posts mit einem emotionalen Inhaltswort eine Wahrscheinlichkeit von bis zu 90 Prozent, in Ihrem Newsfeed weggelassen zu werden. In meinen und den Büchern der meisten Leute ist das so ziemlich manipulativ.

Schauen Sie sich in seiner Erklärung auf Facebook an, wie Kramer (auch bekannt als Danger Muffin) die Auswirkungen des Experiments minimiert:

In Bezug auf die Methodik haben wir versucht, die oben genannte Behauptung zu untersuchen, indem ein kleiner Prozentsatz des Inhalts im Newsfeed (basierend darauf, ob der Beitrag ein emotionales Wort enthält) für eine Gruppe von Personen (etwa 0,04% der Benutzer oder 1) nur minimal depriorisiert wurde in 2500)…

Ah, wir gehen von einer Chance von bis zu 90 Prozent zu einer minimalen Depriorisierung eines kleinen Prozentsatzes des Inhalts über. Ist es nicht erstaunlich, wie kreativ man genau dieselbe Studie auf zwei praktisch widersprüchliche Arten charakterisieren kann?

War es bedeutsam oder nicht?

Die Studie selbst macht mehrere Behauptungen und Schlussfolgerungen über die Bedeutung und Auswirkung ihrer Ergebnisse (trotz ihrer lächerlich kleinen Effektgrößen). Irgendwie kamen all diese widerlichen, weitreichenden Behauptungen an den Gutachtern des PNAS-Journals vorbei (die geschlafen haben müssen, als sie dieses Papier mit einem Stempel versehen hatten) und durften ohne Qualifikation stehen.

In Kramers Erklärung vom Sonntag schlägt er vor, dass ihre Daten sowieso nichts gefunden haben, worüber sich die Leute Sorgen machen sollten:

Und am Ende des Tages war die tatsächliche Auswirkung auf die Personen im Experiment die minimale Menge, um sie statistisch zu erfassen… 3

Was den Behauptungen in der Studie selbst direkt widerspricht:

Diese Ergebnisse legen nahe, dass die von Freunden über soziale Online-Netzwerke zum Ausdruck gebrachten Emotionen unsere eigenen Stimmungen beeinflussen und nach unserem Kenntnisstand den ersten experimentellen Beweis für eine massive emotionale Ansteckung über soziale Netzwerke darstellen […]

Online-Nachrichten beeinflussen unser Erleben von Emotionen, die sich auf eine Vielzahl von Offline-Verhaltensweisen auswirken können.

Schau mal - keine Qualifikationsmerkmale für diese Aussagen. Kein Sprichwort: "Oh, aber das würde die Emotionen eines Individuums nicht wirklich beeinflussen." Nein, meiner Meinung nach ein völliger Widerspruch zu dem, was einer der Forscher jetzt behauptet.

Aber war es ethisch?

Es gab viele Kontroversen darüber, ob diese Art von zusätzlich Die Manipulation Ihres Newsfeeds in Facebook ist ethisch und es ist in Ordnung, ein globales Einverständnisformular für Forschungsergebnisse in die Nutzungsbedingungen einer Website einzubetten. (Facebook manipuliert bereits das, was Sie in Ihrem Newsfeed sehen, über seinen Algorithmus.)

Lassen Sie uns zunächst das Red-Herring-Argument aus dem Weg räumen, dass diese Forschung nicht mit internen Forschungsunternehmen für Usability- oder Designtests identisch ist. Diese Art von Forschung wird niemals veröffentlicht und niemals durchgeführt, um wissenschaftliche Hypothesen über emotionales menschliches Verhalten zu untersuchen. Es ist, als würde man Äpfel mit Orangen vergleichen, um darauf hinzuweisen, dass dies dasselbe ist.

Forschung an menschlichen Probanden muss im Allgemeinen von einem unabhängigen Dritten, dem so genannten Institutional Review Board (IRB), genehmigt werden. Diese sind in der Regel an Universitäten untergebracht und überprüfen alle von den Forschern der Universität durchgeführten Forschungsarbeiten, um sicherzustellen, dass sie nicht gegen Gesetze, Menschenrechte oder Menschenwürde verstoßen. For-Profit-Unternehmen wie Facebook haben im Allgemeinen kein genaues IRB-Äquivalent. Wenn eine Studie an menschlichen Probanden nicht von einem IRB überprüft wurde, bleibt offen, ob sie ethisch oder moralisch war.

Hier ist "Datenwissenschaftler" 4 Kramers Verteidigung des Forschungsdesigns, wie in der Studie festgestellt:

[Die Daten wurden so verarbeitet], dass die Forscher keinen Text sahen. Als solches stand es im Einklang mit der Datennutzungsrichtlinie von Facebook, der alle Benutzer vor dem Erstellen eines Kontos auf Facebook zustimmen, was eine Einverständniserklärung für diese Forschung darstellt.

Kashmir Hill schlägt jedoch vor, dass die Facebook-Datennutzungsrichtlinie 4 Monate nach Durchführung der Studie geändert wurde, um die explizite Nutzung von Facebook-Daten durch „Forschung“ zu ermöglichen.

Sie schienen auch daran gescheitert zu sein, die IRB-Genehmigung einer Universität für die Studie zu erhalten. Hill berichtete zuvor, dass Cornells IRB die Studie nicht überprüft hat.5 Keiner der Forscher hat sich gemeldet, um zu erklären, warum sie dem PNAS-Redakteur anscheinend mitgeteilt haben, dass sie vom IRB einer Universität geleitet wurden.

Chris Chambers vom britischen Guadianer bietet diese Zusammenfassung der traurigen Situation:

Diese Situation ist ehrlich gesagt lächerlich. In welcher Version von 2014 ist es für Zeitschriften, Universitäten und Wissenschaftler akzeptabel, Wieselwörter und Verschleierung als Antwort auf einfache Fragen zur Forschungsethik anzubieten? Wie ist es akzeptabel, dass eine Ethikkommission entscheidet, dass dieselben Autoren, die Facebook bei der Gestaltung einer Interventionsstudie zur Veränderung des emotionalen Zustands von mehr als 600.000 Menschen unterstützt haben, sich „nicht direkt an der menschlichen Forschung beteiligt haben“?

Icing on the Cake: Die Nicht-Entschuldigung

Kramer entschuldigte sich nicht für die Durchführung der Recherche ohne die Einwilligung des Benutzers. Stattdessen entschuldigte er sich dafür die Art, wie er schrieb die Forschung:

Ich kann verstehen, warum einige Leute Bedenken haben, und meine Mitautoren und ich bedauern sehr, wie das Papier die Forschung und die damit verbundenen Ängste beschrieben hat.

Die Leute sind nicht verärgert, dass Sie die Nachforschungen angestellt haben. Sie sind verärgert, dass Sie die Nachforschungen an ihnen ohne ihr Wissen oder ihre Zustimmung durchgeführt haben. Tut mir leid, Facebook, aber das Begraben der "Zustimmung" in Tausenden von Worten des legalen Hokuspokus kann Sie rechtlich schützen, schützt Sie jedoch nicht vor gesundem Menschenverstand. Oder die Reaktionen der Leute, wenn sie herausfinden, dass Sie sie wie Meerschweinchen verwenden.

Die Leute wollen einfach eine sinnvolle Möglichkeit, Ihre Durchführung von Experimenten mit ihnen und ihrem Newsfeed ohne ihr Wissen oder ihre Zustimmung zu deaktivieren.

Facebook bietet dies heute nicht an. Ich vermute jedoch, dass Facebook seinen Nutzern diese Option bald anbieten wird, wenn es weiterhin Forschungen dieser Art durchführen möchte.

Eine Ethik-Fallstudie für alle Zeiten

Diese Situation ist ein perfektes Beispiel dafür, wie Sie die Daten Ihrer Benutzer nicht ohne deren ausdrückliche Zustimmung untersuchen können. Es wird in den kommenden Jahren - und vielleicht Jahrzehnten - im Ethikunterricht unterrichtet.

Es dient auch als Fallstudie darüber, was Sie als soziales Netzwerk nicht tun sollten, wenn Sie Ihren Benutzern vertrauen möchten.

Facebook sollte allen Nutzern eine echte Entschuldigung dafür bieten, dass sie diese Art von Forschung ohne ihr ausdrückliches Wissen und ihre Erlaubnis durchgeführt haben. Sie sollten auch ihre internen Forschungsanforderungen ändern, damit alle an ihren Benutzern durchgeführten Studien einen externen IRB an einer Universität durchlaufen.

Weiterführende Literatur

Facebook-Fiasko: War Cornells Studie über „emotionale Ansteckung“ ein Verstoß gegen die Ethik?

Facebook hat 4 Monate nach der Emotionsmanipulationsstudie "Forschung" zur Nutzervereinbarung hinzugefügt

Referenz

Kramer, ADI, Guillory, JE, Hancock, JT. (2014). Experimentelle Beweise für eine massive emotionale Ansteckung durch soziale Netzwerke. PNAS. www.pnas.org/cgi/doi/10.1073/pnas.1320040111

Fußnoten:

  1. Was sie uns bereits in der Studie gesagt haben: "Ein Test, ob Beiträge mit emotionalem Inhalt ansprechender sind." [↩]
  2. Facebook scheint weniger mit meinem wirklichen Leben verbunden zu sein, da mein eigener Newsfeed weitgehend von Posts über das Leben von Menschen zu „Links, die ich interessant finde“ übergegangen ist - obwohl ich nie auf diese Links klicke! [↩]
  3. Dies ist eine forschungslose Art zu sagen: "Unser Experiment hat keine nennenswerte Effektgröße gefunden. Aber wir werden die Ergebnisse so posaunen, als ob wir es getan hätten (da wir tatsächlich eine Zeitschrift gefunden haben, PNAS, die genug ist, um sie zu veröffentlichen!). " [↩]
  4. Ich verwende Zitate um diesen Titel, weil alle Forscher und Wissenschaftler Datenwissenschaftler sind - das unterscheidet einen Forscher von einem Geschichtenerzähler. [↩]
  5. Tatsächlich stellen sie fest, dass Hancock, ein auf dem Papier genannter Autor, nur Zugang zu Ergebnissen hatte - nicht einmal zu den tatsächlichen Daten! [↩]

!-- GDPR -->