Facebook-CEO Mark Zuckerberg.Foto: AP
Nach einer groben Woche der Kritik über Facebook-CEO Mark Zuckerberg die schlampige Erklärung dafür, warum er nicht ban Verschwörung-Website Infowars—einschließlich einer peinlichen Exkurs in die scheinbar glauben, Holocaust-Leugner sind nicht “absichtlich falsch verstanden”—der social-media-Riese hat angekündigt, dass Sie beginnen, entfernen von Fehlinformationen, provoziert Reale Gewalt.
Pro der New York Times, die neue Politik ist “weitgehend eine Reaktion auf die Episoden, in Sri Lanka, Myanmar und Indien”, wo Gerüchte verbreiten sich schnell auf Facebook, was zu gezielten Angriffen auf ethnische Minderheiten. Das Papier schreibt, dass Facebook-Mitarbeiter zugeben, Sie tragen “Verantwortung” zu zügeln, die Art der Inhalte aus, die auf die Website:
“Wir haben festgestellt, dass es eine Art von Fehlinformationen, die gemeinsam in bestimmte Länder, kann Schüren unterschwellige Spannungen und führen zu körperlichen Schäden, offline,”, sagte Tessa Lyons, ein Facebook-Produkt-manager. “Wir haben eine breitere Verantwortung, nicht nur zu reduzieren, dass die Art der Inhalte, sondern es zu entfernen.”
In einem anderen statement auf CNBC, ein Facebook-Sprecher charakterisiert die Politik als eine Razzia auf eine bestimmte Art von Inhalt Sie für würdig erachtet, in der Entfernung, während die Verteidigung Ihre laissez-faire-Ansatz zu anderen dubiosen Beiträge:
“Die Reduzierung der Verbreitung von Fehlinformationen—anstatt es zu entfernen outright—Streiks die richtige balance zwischen freier Meinungsäußerung und eine sichere und authentische Gemeinschaft”, ein Facebook-Sprecher sagte in einer Erklärung auf CNBC. “Es gibt bestimmte Formen der Desinformation, die dazu beigetragen haben, um physischen Schaden, und wir sind auf eine änderung der Politik, die uns in die Lage versetzen, die Art der Inhalte. Wir werden beginnen, die Umsetzung der Richtlinie in den kommenden Monaten.”
Laut CNBC, Facebook, sagt die neue Politik der Partnerschaft mit den lokalen zivilgesellschaftlichen Gruppen zu identifizieren, die text-und Bild-Inhalte mit dem Zweck, “einen Beitrag zur oder Verstärker von Gewalt oder Physischer Schaden” für die Entfernung. Die CNBC-Bericht stellt auch fest, dass der Prozess zu involvieren, Facebook-internen image recognition technologies, vermutlich ein ähnliches system, die es verwendet, um automatisch löschen Rache-porno von der Website.
Das ist eine Verbesserung gegenüber der aktuellen situation. Zum Beispiel, in Sri Lanka und Myanmar, hat sich das Unternehmen konfrontiert harsche Kritik von lokalen NGOs für die angebliche Untätigkeit als Hetze und propaganda verbreitet und auf der Website. In beiden Ländern, trotz großen userbases, zeigen Berichte Facebook weitgehend gescheitert zu mieten genug Moderatoren. Die Partnerschaft mit lokalen Organisationen helfen könnten, die Website weniger von einem abwesenden Vermieter.
Dies ist jedoch wahrscheinlich weit von einem slam dunk. Für ein, Facebook die standards für das, was qualifiziert als unangebrachte Inhalte sind, die Ihren gewöhnlichen lax, und es wird eine Menge von diesen Inhalt zu sichten. Es stützt sich oft auf automatisierte Methoden sind leicht umgangen, oder andere, die einfach am Ende Fehlzündungen (wie war der Fall mit dem “umstritten” flags legte es auf dubiosen Artikel). In diesem Fall, es ist leicht vorstellbar, dieses Ende als ein endlos-Spiel Whac-A-Mole, in die Sie nur Begehen Ressourcen zu starren auf ein Loch.
Wie die NYT schrieb, gibt es zwei andere Lösungen auf der Website bewegen uns mit: downranking Beiträge markiert als “false” durch Dritte Tatsache, die Steine und das hinzufügen von “Informationen” – Felder unter nachweislich falsche Nachrichten, was andere Quellen der information für die Menschen zu Lesen.” Während entweder die Methode wird wahrscheinlich einen gewissen Einfluss haben, Facebook ist eine Tatsache-Kontrolleure haben immer wieder Bedenken geäußert, dass die Website ist zu eingeschränkt, um wirksam zu sein.
Darüber hinaus werden die NYT berichtet, Facebook hat keine Pläne, roll-out der neuen Regeln an Ihre Tochtergesellschaften, Foto – und video-sharing-app Instagram und den verschlüsselten chat-Dienst WhatsApp, von denen die letztere wurde mit mehreren tödlichen hoaxes:
Die neuen Regeln gelten nicht für Facebook zu einem anderen großen social-media-Eigenschaften, Instagram und WhatsApp, wo falsche news hat auch in Umlauf gebracht. In Indien, zum Beispiel, falsche Gerüchte zu verbreiten über WhatsApp über das Kind Entführer geführt haben, um die Ausschreitungen des Pöbels.
Polizeiarbeit WhatsApp vielleicht etwas schwieriger oder geradezu unmöglich, da Facebook angeblich nicht sehen können, den Inhalt der Nachrichten, ohne zu verwässern Ihre Verschlüsselung, es ist also zwischen einem Felsen und einer harten Stelle. (Wie die Indische Tageszeitung Economic Times schrieb im letzten Jahr die Behörden es immer noch als WhatsApp-Gruppe Administratoren Haftung für die Inhalte von chats.)
Dann gibt es die Angelegenheit von Facebook erklärten Engagements für die Redefreiheit, das ist in der Theorie schön, aber vage genug in der Praxis, dass es zu funktionieren scheint, in Erster Linie als Schutzschild gegen Kritik. Verbunden damit ist der Ort des gewöhnlichen das Misstrauen gegenüber, verbunden mit einer 2016 Gizmodo post behauptet bias in der mittlerweile aufgelösten trending news-Bereich, zu beleidigen konservativen und rechtsextremen Gruppen eifrig an zu Weinen Zensur. Zum Beispiel, nehmen Infowars, die zu verbreiten Verschwörungstheorien über einen DC-Bereich pizza-restaurant-bis ein bewaffneter Mann auftauchte. Wie die Washington Post bemerkt, ist es schwer zu versöhnen wie Facebook ‘ s “beefed-up-Ansatz”, um Fehlinformationen können zusammen mit einige der wichtigsten Protagonisten zu dürfen, bleiben auf der Website.
Diese Probleme sind zahllos. Als ehemalige Gawker-Chefredakteur Max Read schrieb vor kurzem, Sie sind auch vielleicht unlösbare kurz eine Radikale Umstrukturierung der Unternehmen, da Facebook die Skalierung ist nun so groß, dass es Ansätze einer form von “souveränen macht ohne Rechenschaftspflicht” (oder in der Tat, eine kohärente vision von dem, was es sein soll).
“Es ist nicht immer eine wirklich klare Linie,” Facebook-Produkt-manager Tessa Lyons sagte dem NYT. “All dies ist eine Herausforderung—das ist, warum wir sind, Durchlaufen. Das ist, warum wir nehmen feedback ernst.”
Gizmodo erreicht hat auf Facebook für einen Kommentar, und wir werden aktualisiert, wenn wir hören, zurück.
[New York Times]