Wir Haben Endlich Einige Harte Daten auf, Wie Viel Twitter Nervt

Foto: Getty

Neun Monate nach Amnesty International rief auf Twitter zu mehr Transparenz über den Missbrauch auf seiner Plattform, hat die Organisation veröffentlicht eine weitere Studie, die darauf hinweist, dass—haltet Euch fest—Twitter hat noch eine vernichtende online-Missbrauch problem, und es betrifft überwiegend Frauen von Farbe.

Während die Ergebnisse sind kaum verwunderlich, wenn Sie schon mal die Hälfte abgestimmt, in der Plattform für den Diskurs über die letzten Jahre, sehen die kalten, harten zahlen ist eine ernüchternde Erinnerung an Twitter höllische Realität. Die Studie, die im tandem mit der software-Firma Element AI, festgestellt, dass schwarze Frauen waren 84 Prozent wahrscheinlicher als weiße Frauen, die in einer missbräuchlichen oder problematischen tweet. “Eins zu zehn tweets zu erwähnen, schwarze Frauen-Missbrauch war oder problematisch,” Amnesty schreibt, “im Vergleich zu fünfzehn für weiße Frauen.”

Zur Durchführung der Studie, über 6.500 freiwillige aus 150 Ländern wateten durch 228,000 tweets gesendet 778 Frauen, Politiker und Journalisten in den USA und Großbritannien im letzten Jahr. Insgesamt, Forscher schätzen, dass im Laufe des Jahres, einen problematischen oder beleidigenden tweet wurde gesendet, um die Frau von Freiwilligen, die alle 30 Sekunden im Durchschnitt.

“Der Bericht gefunden, dass als ein Unternehmen, Twitter ist nicht Ihrer Verantwortung zur Achtung der Rechte der Frauen online nicht angemessen zu untersuchen und reagieren auf Berichte von Gewalt und Missbrauch in einer transparenten Art und Weise, die führt bei vielen Frauen zu schweigen, oder Sie zensieren sich selbst auf der Plattform,” Amnesty schreibt.

Die wichtigsten Ergebnisse, die von der Amnestie, die so genannte “Troll-Patrol project” nicht unbedingt world-shattering—Twitter grassierenden Toxizität wurde dunkel und schleimig Eckpfeiler der service seit Jahren. Aber Sie fügen hart erarbeiteten Daten zu der Kritik, dass Twitter immer noch nicht in den Griff bekommen, am schlimmsten die Benutzer, die wiederum negativ auf die am meisten marginalisierten Menschen auf Ihrer Plattform.

Laut der Studie, Frauen der Farbe wurden 34 Prozent wahrscheinlicher als weiße Frauen erwähnt werden, die in einer missbräuchlichen oder problematischen tweet. Es fand auch, dass insgesamt 7 Prozent der tweets zu erwähnen, Journalistinnen waren problematisch oder beleidigend, im Vergleich zum 7.12 Prozent der tweets zu erwähnen, Politiker. Und die tweets als in dieser Studie noch nicht einmal mit gelöschten tweets oder solche, die von Konten von Twitter suspendiert oder deaktiviert im letzten Jahr—wahrscheinlich das Schlimmste und krasseste Beispiele.

“Die durch crowdsourcing der Forschung, waren wir in der Lage aufzubauen, wichtige Beweismittel in einem Bruchteil der Zeit es dauern würde, eine Amnesty-researcher, ohne dabei die menschliche Urteil, das so essentiell ist, wenn man auf den Kontext um tweets zu” Milena Marin, Senior Advisor für Taktische Forschung bei Amnesty International, sagte in einer Erklärung.

Amnesty definiert beleidigende tweets als solche, die “gehören Inhalte, die zu Gewalt gegen oder Bedrohungen der Menschen aufgrund Ihrer Rasse, Volkszugehörigkeit, nationalen Herkunft, sexuellen Orientierung, Geschlecht, Geschlechtsidentität, Religionszugehörigkeit, Alter, Behinderung oder schweren Krankheit”, die “körperliche oder sexuelle Bedrohungen, Wünsche für die körperliche Verletzung oder Tod, Verweis auf gewalttätige Ereignisse, Verhalten, das Schüren von Angst oder wiederholte Beleidigungen, Beinamen, rassistische und sexistische tropes, oder andere Inhalte, die degradiert jemand.”

Problematisch tweets, auf der anderen Seite “enthalten verletzend oder feindselig-Inhalte, vor allem, wenn wiederholt, um einen einzelnen oder mehrere Anlässe, aber nicht notwendigerweise treffen die Schwelle von Missbrauch” und “stärken können negative oder schädliche Stereotypen gegen eine Gruppe von Individuen (z.B. negative Stereotypen über Rasse oder Menschen, die Folgen einer bestimmten religion).”

Amnesty Noten, beleidigende tweets gegen den Twitter-Politik, sondern problematisch sind differenzierter und nicht immer im Verstoß gegen die Richtlinien der Gesellschaft. Die Organisation, die noch beschlossen, Sie in dieser Studie, weil, Amnesty schreibt, “es ist wichtig zu betonen, die Breite und Tiefe der Toxizität auf Twitter in seinen verschiedenen Formen und zu erkennen, dass der kumulative Effekt, dass problematische Inhalte, die auf die Fähigkeit der Frauen, sich frei auszudrücken, sich selbst auf der Plattform.”

Vijaya Gadde, Twitter rechtliche und politische Führung, sagte Gizmodo in einer E-Mail, dass Amnesty die Aufnahme von problematischen Inhalten in seinem Bericht “sichert die weitere Diskussion, und fügte hinzu, dass “es ist unklar”, wie die Organisation definiert oder klassifiziert diese Inhalte und, ob es denkt, dass Twitter sollte entfernen Sie problematische Inhalte von seiner Plattform.

In seiner neuesten halbjährlichen Transparenz-Bericht veröffentlicht Letzte Woche, Twitter sagte, er erhielt Berichte auf über 2,8 Millionen “unique accounts” für Missbrauch (“ein Versuch, zu belästigen, einzuschüchtern oder zu schweigen, jemand anderes die Stimme”), das fast 2,7 Millionen Konten für “hasserfüllt” – Rede (tweets, dass “die Gewalt gegen oder direkt angreifen oder bedrohen andere Menschen auf der Grundlage Ihrer Eingliederung in einer geschützten Gruppe”), und 1,35 Millionen Konten für die gewalttätigen Bedrohungen. Von denen, die Firma hat Maßnahmen ergriffen—das bis zur Sperrung des Kontos—auf etwa 250.000 für Missbrauch, 285,000 für hasserfüllt zu Verhalten, und nur über 42.000 für die gewalttätigen Bedrohungen.

Gadde sagte, dass Twitter “öffentlich verpflichtet hat, die Verbesserung der kollektiven Gesundheit, Offenheit, Höflichkeit und öffentlichen Gespräch zu unserem service”, und dass das Unternehmen sich “verpflichtet, halten uns selbst rechenschaftspflichtig gegenüber Fortschritt”, wenn es um die Aufrechterhaltung der “Gesundheit” Gespräche über seine Plattform.

Twitter, Gadde auch darauf hingewiesen, nutzt maschinelles lernen und menschliche Moderatoren-review-online-abuse-reports. Wie wir gesehen haben-eindeutig auf anderen Plattformen wie Facebook und Tumblr, künstliche Intelligenz-tools können Ihnen fehlt die Fähigkeit zu verstehen, die Nuancen und den Kontext der menschlichen Sprache, so dass es ein ungeeignetes Werkzeug, auf Ihre eigenen zu bestimmen, ob ein bestimmter Inhalt ist rechtmäßig beleidigend. Es ist die details zu diesen tools, die Amnesty will Twitter die öffentlichkeit zu tragen.

“Troll Patrol wird nicht über die Polizeiarbeit Twitter oder zwingen, Inhalte zu entfernen,” Marin sagte. “Wir sind gefragt, Sie werden transparenter, und wir hoffen, dass die Erkenntnisse aus der Troll-Patrouille zwingen es zu machen, ändern. Entscheidend ist, dass Twitter starten müssen transparent darüber, wie genau Sie mit der Maschine lernen zu erkennen, Missbrauch, und Veröffentlichung von technischen Informationen über die algorithmen, auf die Sie sich stützen.”

Teilen Sie Diese Geschichte


Date:

by