Das Experiment bei Facebook

imagesAnfang 2012 führte Facebook einen einwöchigen Test an rund 690.000 zufällig ausgewählten Nutzern durch – ohne deren Wissen. Der wissenschaftliche Bericht dazu löste, nachdem ein Artikel in The Atlantic darüber erschienen war, Empörung in der Netzgemeinde aus: Facebook manipuliere die Gefühle seiner Mitglieder, hieß es. Der Grund für diesen Vorwurf: Im Sozialen Netzwerk filterte der Konzern auf der  Nachrichten-Seite der „Versuchskaninchen“ die Posts von Freunden. Bei einigen wurden die positiven Meldungen reduziert, bei den anderen die negativen. Die Gruppe der Wissenschaftler wollte herausfinden, ob diese Manipulation von Inhalten die Gefühle der Nutzer beeinflusst. Das Ergebnis ist „statistisch signifikant“, d. h. ja, die Änderung der Posts wirkt sich auf die Stimmung aus. Tatsächlich hat die Manipulation jedoch nur einen verschwindend kleinen Einfluss auf die Realität der Nutzer. Die Stimmungsschwankung ist minimal, eben nur statistisch interessant. Das bestätigt auch das Pew Research Center, ein Meinungsforschungsinstitut, das sich laut Eigenwerbung zur Aufgabe gemacht hat, die Öffentlichkeit über die wahren Fakten hinter Angelegenheiten des öffentlichen Interesses aufzuklären.

Trotzdem war und ist die Aufregung im Netz groß – die Gefühle sind bei den meisten Nutzern unbestimmt. „Irgendwie war es doch nicht richtig, wie sich Facebook verhalten hat. Oder?“ Die Empörung wuchs stetig. Die Verantwortlichen bei Facebook dachten zunächst, als PR-Maßnahme würde es reichen, auf die Nutzungbedingungen hinzuweisen. „Der Test sei dadurch abgedeckt, dass das Ergebnis der Verbesserung des Dienstes gedient habe“, war die allererste Stellungnahme. Sheryl Sanders, Top Managerin des US-Konzern, musste wenig später allerdings nachlegen. Sie entschuldigte sich und gab zu, dass die Studie „schlecht kommuniziert“ worden sei. Ihre Worte bezogen sich auf die „Einwilligung nach erfolgter Aufklärung“ (informed consent). Einem wissenschaftlichen Grundsatz, demzufolge Untersuchungen erst durchgeführt werden können, nachdem die Testperson – vollumfänglich aufgeklärt – dem Test zugestimmt hat. Doch die Facebook-Versuchskaninchen wussten nichts von einem Experiment.

Das kristallisierte sich im Internet als Hauptkritikpunkt an der Studie heraus. Amerikanische Datenschutz-Aktivisten des Electronic Privacy Information Centers (EPIC) reichten schließlich eine Beschwerde bei der Aufsichtsbehörde Federal Trade Commission (FTC) ein. Ihr Argument: Die Facebook-Nutzungsbedingungen hätten zum Zeitpunkt des Experiments noch nicht auf den möglichen Einsatz für Forschungszwecke hingewiesen. Inwieweit sie damit erfolgreich sein werden, wird sich herausstellen.

Den Usern geht es jedoch nicht um die wissenschaftlich korrekte Durchführung oder eine rechtliche Absicherung der Untersuchung durch die Nutzungsbedingungen. In Österreich fragen viele mittlerweile: „Ja derfen’s denn des?“, in Deutschland, ob Facebook „so etwas überhaupt machen darf – rein menschlich gesehen“. Dahinter steckt ein und dieselbe grundsätzliche Fragestellung , nämlich die, ob das Verhalten Facebooks ethisch vertretbar ist.

Der ethische Hintergrund

Das Missverständnis liegt im Interkulturellen: Als ethisch gilt es in Europa nach dem Kant’schen Imperativ –  „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde“ – als z. B. nicht vertretbar, Menschen zu manipulieren, indem man Informationen verändert. Besonders jene Bürger, die Diktaturen erlebt haben, sind in dieser Hinsicht zu Recht äußerst sensibel.

In den USA und anderen englischsprachigen Ländern herrscht jedoch eine etwas abweichendere philosophische Ansicht vor. Verkürzt bezeichnen es Philosophen als die „Nützlichkeitsethik“. Bei ihr liegt das Ziel des Handelns darin, die Menschen insgesamt glücklicher zu machen, ihnen ein sicheres, angenehmes Leben zu verschaffen. „Freiheit“ wird in diesem Zusammenhang oft auf den ersten Blick nicht für wichtig erachtet, auch deshalb, weil man sich in den USA seit der amerikanischen Unabhängigkeiterklärung für frei hält.

Mit dieser utiliaristischen Sichtweise lässt sich die Studie gut rechtfertigen. Die Ergebnisse können „zum Glück aller“ verwendet werden, auch wenn sie vorerst möglicherweise zum „Unglück“ derjenigen beigetragen haben, die mehr negative Posts erhalten haben als positive. Denn die Resultate zeigen, dass man für eine „Vermehrung des Glücks“, Informationen jetzt bloß noch „positiv“  verändern braucht. Die Unternehmen haben die Werkzeuge dafür. Ein Argumentationsstrang, der US-Amerikanern durchaus einleuchtet.

„Glücklich“ bedeutet im unternehmerischen Zusammenhang etwas anderes, als im persönlichen. Für Firmen gilt: „Glücklich“ ist der Kunde, der wiederkommt. Damit erklärt sich die Laxheit in Sicherheits- oder Privatsphäre-Fragen. Denn unmittelbar merkt ein Nutzer nichts davon, dass er Nachteile aus dem Umgang mit seinen Daten davonträgt. Er genießt die bequeme Handhabung, das intuitive Interface, die mobile Verfügbarkeit eines Cloud-Dienstes und kommt normalerweise wieder. Es vergeht eine lange Zeit, bis er die dahintersteckenden Mängel bemerkt: Sicherheitslücken des Systems, AGBs, die dem Betreiber des Dienstes vollen Zugang zu den Daten einräumen und deren Weiterverwendung erlauben, Angriffsmöglichkeiten auf Grundrechte.

Der emotionale Hintergrund

In Twitter meldeten Kritiker des Facebook-Experiments ihr Entsetzen. Meist waren es vorwurfsvolle Kommentare: Facebook habe „absichtlich tausende Leute traurig gemacht“ oder „die Gefühle von Hundertausenden wesentlich beeinflusst, ohne diese um Erlaubnis zu fragen“. Was sich in all diesen emotionalen Bemerkungen ausdrücken will, ist der Ärger über Big Data. Darüber, dass Firmen Daten sammeln und diese dann in ihrem Sinne nutzen. Es geht eigentlich nicht um die Studie, es geht um das gängigste Geschäftsmodell im Internet: Da hat der Anwender gedacht, er würde etwas gratis bekommen, und jetzt muss er feststellen, dass er teuer dafür bezahlt, weil er das Kleingedruckte nicht gelesen hat. Er fühlt sich betrogen – und machtlos. Daraus resultiert die Wut über diese kleine Studie.

Technische Tatsache

Facebook verändert ständig den Inhalt. Algorithmen berechnen das Erscheinungsbild der Seite so, dass der Nutzer zu sehen bekommt, wovon Facebook denkt, dass er es sehen will. Google macht nichts anderes, Twitter, Amazon und die meisten anderen Cloud-Dienste auch nicht. Tatsächlich gibt es keine Nutzer-Erfahrung, wenn der Betreiber einer Anwendung diese nicht gestattet. Daten-Wissenschafter und Forscher lassen für diese Unternehmen täglich unzählige Tests laufen, um prognostizieren zu können, wie User reagieren. Damit die Unternehmen ihre Technologie so optimieren können, dass die Kunden zufrieden sind und wiederkommen.

Deshalb liegt das Verdienst des umstrittenen Experiments vor allem in der Aufklärung, wie Rainer Erlinger in der Süddeutschen Zeitung schreibt. Die Wissenschaft habe nun „den Menschen geholfen zu erkennen, dass und wie sie manipuliert werden können“.

Was kann der Nutzer dagegen tun?

Aufklärung ist allerdings nur der erste Schritt. Das Facebook-Konto kündigen, Google meiden oder gleich den Computer auf den Müll werfen sicher nicht der zweite. Auch der allgemein übliche Internet-Fatalismus hilft nicht wirklich weiter. Es muss eine ernsthafte Auseinandersetzung mit dem eigenen Gebaren im Internet beginnen. Am besten fängt man damit an, dass man die Dienste, die man nutzt, danach auswählt, wie nachhaltig sie sind und wie verantwortungsbewusst sie sich Kundendaten gegenüber verhalten. Und nicht danach, ob sie gratis sind und „alle“ sie benutzen. Pseudonym im Internet unterwegs zu sein, hilft auch. Man muss dabei heute keine Unbequemlichkeit mehr in Kauf nehmen. Deutschland hat mittlerweile einige Dienste zu bieten.