Trauernde an einem 19. März 2019 vigil außerhalb der Al Noor Moschee in Christchurch, Neuseeland, die zusammen mit Linwood islamischen Zentrum, wurde das Ziel von weißer Rassist, tötete 50 Menschen am März 15, 2019.Foto: Vincent Yu (AP)
Microsoft hat gefordert, dass die tech-Industrie zu legen ein einheitliches Vorgehen bei gewalttätigen, extremistischen folgenden Inhalt, der die grausamen Massaker der Muslime besuchen die Moschee in Christchurch, Neuseeland von einer weiße Vorherrschaft früher in diesem Monat. Mindestens 50 Menschen wurden Brutal ermordet, zahlreiche andere wurden verletzt, und Aufnahmen per live-Stream auf Facebook, indem der Schütze ging viralen auf ein Magen-Buttern-Skala.
In einem blog-post am Sonntag, den Microsoft president Brad Smith schrieb dazu: “Worte allein sind nicht genug. Über den tech-Sektor, müssen wir mehr tun. Vor allem für diejenigen von uns, die arbeiten mit sozialen Netzwerken oder digitalen Kommunikations-tools oder Plattformen, die verwendet wurden, um zu verstärken, die Gewalt, es ist klar, dass wir brauchen, um daraus zu lernen und nehmen Sie neue Aktion auf, was in Christchurch.”
Zu schreiben, dass Microsoft bereits erkannt hatte, wie seine Leistungen waren verbreitet das video und die Firma musste “identifiziert, die Verbesserungen, die wir machen können und bewegen sich zeitnah umgesetzt,” Smith fügte hinzu: “Letztlich müssen wir entwickeln ein branchenweiter Ansatz wird grundsätzliche, umfassende und wirksame. Der beste Weg zu verfolgen, dies ist eine neue und konkrete Schritte, die schnell in einer Weise, die auf dem aufbauen, was bereits vorhanden ist.”
Während Smith-anerkannt in der post, dass “noch niemand hat alle Antworten,” und er Tat vorschlagen, mehrere konkrete Schritte. Zuerst schlug er vor, Verbesserungen hashing-Technologie—eine Technik, bei dem eine bestimmte Datei, wie beispielsweise ein Foto oder video, ist eine eindeutige Kennung, die verwendet werden können, um track kopiert es woanders hochgeladen. Smith schrieb, dass, während das system wirksam war, sollten die Plattformen in der Lage sein, automatisch zu fangen, bearbeitete Versionen dieser videos. Er schlug auch vor, dass der Browser sollte beinhalten safe search-like features “zu blockieren, den Zugriff auf solche Inhalte an der Stelle, wenn Menschen versuchen, anzeigen und herunterladen.”
Smith fügte hinzu, dass Betreiber von web-Plattformen sollten sich auf eine Kategorie von “vereinbart”, bestätigt Ereignissen” Auslöser der Kooperation zwischen Unternehmen, und forderte für die tech-community zu unterstützen “gesünder online-Umgebung breiter.”
Einige dieser Ideen sind wahrscheinlich zu sein umstritten—und nicht nur in teilen der internet-feindlichen Gesetzen gegen Hassrede, Aufrufe zu Gewalt und extremistischen Inhalten. Für eine hashing-Methode funktioniert durch die Identifizierung spezifischer Teile des Inhalts, die leicht gamed durch Bearbeiten diese Inhalte vor dem hochladen. Die Identifizierung bearbeitete Versionen eines Videos ist es schwieriger, und da die automatisierten Systeme, die viele große Plattformen verwalten Funde von Inhalten sind ein einziges Chaos, man könnte vorsichtig sein, dass solch ein system könnte purge relativ Harmlose Inhalte durch design oder Unfall.
Ein theoretisches Beispiel: Eine Plattform schrubben Aufnahmen von Nachrichtensendungen, die zu übernehmen clips von einem Terroranschlag. Politisch Medienkritiker Jack Schafer, zum Beispiel, vor kurzem gegenüber der Christchurch-video-footage von der September-11, 2001 Anschläge auf das World Trade Center.
Schafer kann ‘ s nicht sein, ein völlig kohärentes Vergleich; Aufnahmen der 9/11-Attacken war, aufgezeichnet von unschuldigen, während das Christchurch-footage war ausdrücklich gedacht als terroristische propaganda. Aber die Linie ist nicht immer sauber geschnitten, was ist okay in die Luft, und eine Lehre der letzten Jahre ist, dass die großen tech-Firmen sind nicht immun gegen politischen Druck, wenn diese Entscheidungen. (Nebenbei, eine andere Möglichkeit ist, dass eine solche Technologie könnte verwendet werden, um weitere drakonische Durchsetzung des Urheberrechts Maßnahmen.)
Umgekehrt, Smith safe search-Vorschlag scheint weniger problematisch—Browser in der Regel, dass Benutzer auf gekennzeichnete Inhalte auf eigene Gefahr. Und jetzt-es ist offensichtlich, dass sein Anruf für die tech-Unternehmen mehr Verantwortung zu übernehmen für Ihre Plattformen geboten ist, gegeben, dass Sie routinemäßig behaupten, Ihr Umfang macht es unmöglich, die Inhalte moderieren… auch als Sie Rechen in die Gewinne.
Eine Studie im vergangenen Jahr gezeigt, dass rechtsextreme und weißer Rassist, YouTubers haben kapitalisiert influencer Techniken zu verbreiten weit und breit. Facebook und Google wurde dafür kritisiert, die Verbreitung anti-vax Verschwörungstheorien. Hassreden läuft grassiert nicht nur auf Orte wie 4chan und 8chan, aber mehr mainstream-web-Destinationen wie Reddit. Twitter verifiziert beißender Rassisten wie Richard Spencer und nur zurückweichen nach intensiven Medien Kontrolle (und Leute wie berüchtigte weiße Vorherrschaft und ehemaligen Ku-Klux-Klan-Führer David Duke weiter tweet auf einer täglichen basis). Wie die New York Times editorial board schrieb in einem op-ed im letzten Jahr, gibt es einige Hinweise darauf, dass das grundlegende design von social media fördert giftige Ideen.
Es gibt offensichtlich keine einfache Antwort auf diese Fragen! Aber auf der anderen Seite, bedeutet das nicht, Sie sind so schwer zu rechtfertigen Händewaschen. (In einer der letzten Markt-Tech-podcast, der Harvard Kennedy School-Forscherin und ehemaligen Facebook privacy und public policy Mitarbeiterin Dipayan Ghosh vorgeschlagen, die Behandlung von extremistischen Inhalten wie junk-E-mail.) Gibt es nicht eine binäre Wahl zwischen einem totalitären internet und eine weitläufige Jauchegrube. Das ist wahrscheinlich das, was die schlimmsten Menschen online wollen, dass Sie denken.
[Microsoft via the Verge]
Teilen Sie Diese Geschichte