Nous Avons Enfin Quelques Données sur la Façon dont Beaucoup Twitter Suce

Photo: Getty

Neuf mois après Amnesty International a appelé sur Twitter à plus de transparence à propos de la violence sur sa plate-forme, l’organisation a publié une étude indiquant que—tenez-vous bien—Twitter a encore un accablant en ligne problème de l’abus, et il affecte massivement les femmes de couleur.

Alors que les résultats ne sont donc pas surprenant si vous avez même à moitié à l’écoute de la plate-forme du discours au cours de la dernière quelques années, en voyant le froid, dur nombres est un triste rappel de Twitter de l’enfer de la réalité. L’étude, menée en tandem avec la société de logiciels Élément AI, constaté que les femmes noires étaient 84% de chances de plus que les femmes blanches pour être inclus dans une relation de violence ou de problèmes tweet. “Une personne sur dix tweets mentionnant les femmes noires était abusif ou problématique,” Amnesty écrit, “comparativement à une personne sur quinze pour les femmes blanches.”

Pour mener cette étude, plus de 6 500 bénévoles provenant de 150 pays pataugé dans de 228 000 tweets envoyés à 778 femmes de politiciens et de journalistes à travers les états-UNIS et le royaume-Uni l’an dernier. Au total, les chercheurs estiment qu’au cours de l’année, une problématique ou abusif tweet a été envoyé à la femme des bénévoles toutes les 30 secondes en moyenne.

“Le rapport montre que, en tant que société, Twitter est un échec dans sa responsabilité de respecter les droits de la femme en ligne par ne pas avoir suffisamment d’enquêter et de répondre à des rapports de violence et d’abus, de manière transparente, ce qui conduit à de nombreuses femmes de silence ou de censurer eux-mêmes sur la plate-forme”, écrit Amnesty.

Les principales conclusions de l’Amnistie les soi-disant “Troll Patrouille de projet” ne sont pas nécessairement révolutionnaire—Twitter généralisée de la toxicité a été sombre et visqueux pierre angulaire du service pendant des années. Mais ils ajoutent durement gagné données à la critique que Twitter ne peut toujours pas obtenir une poignée sur les pires de ses utilisateurs, qui à son tour affecte négativement la plupart des personnes marginalisées sur sa plate-forme.

Selon l’étude, les femmes de couleur ont été de 34 pour cent plus susceptibles que les femmes blanches pour être mentionné dans une relation de violence ou de problèmes tweet. Il a également constaté qu’un total de 7 pour cent de tweets mentionnant les femmes journalistes ont été problématique ou injurieux, par rapport à 7.12% des tweets mentionnant les politiciens. Et les tweets considérés dans cette étude ne comprend même pas supprimé les tweets ou de comptes Twitter suspendu ou désactivé l’année dernière—probablement l’une des pires et des plus flagrants exemples.

“Par le crowdsourcing de la recherche, nous avons été en mesure de construire des preuves essentielles en une fraction du temps qu’il faudrait un chercheur d’Amnesty, sans perdre le jugement humain qui est si indispensable quand on regarde le contexte autour de tweets,” Milena Marin, Conseiller Principal pour les Tactiques de Recherche d’Amnesty International, a déclaré dans un communiqué.

Amnesty définit abusif tweets que ceux qui “ont un contenu qui favorise la violence ou de menaces à l’encontre de personnes fondée sur la race, l’origine ethnique, l’origine nationale, l’orientation sexuelle, le sexe, l’identité, l’appartenance religieuse, d’âge, de handicap ou de maladie grave”, ce qui peut inclure “physique ou sexuelle, les menaces, les vœux pour le préjudice corporel ou de décès, la référence à des événements violents, comportement qui incite à la peur ou répétée, les insultes, les épithètes, racistes et sexistes des tropes, ou tout autre contenu qui dégrade quelqu’un.”

Problématique de tweets, d’autre part, “contenir blessantes ou hostiles contenu, surtout si elle est répétée à une personne ou plusieurs reprises, mais ne sont pas nécessairement d’atteindre le seuil de l’abus” et “peut renforcer négatives ou nuisibles, les stéréotypes à l’encontre d’un groupe d’individus (par exemple, les stéréotypes négatifs à une course ou à des personnes qui suivent une certaine religion).”

Comme Amnesty notes, abusif tweets violer Twitter, les politiques mais les problématiques sont plus nuancées et ne sont pas toujours en violation de la politique de la société. L’organisation a décidé de les inclure dans cette étude, car, Amnesty écrit, “il est important de souligner l’ampleur et la profondeur de la toxicité sur Twitter dans ses diverses formes et à reconnaître l’effet cumulatif des problématiques de contenu peut avoir sur la capacité des femmes à disposer librement de s’exprimer sur la plate-forme.”

Vijaya Gadde, Twitter juridique et politique de plomb, de Gizmodo dit dans un courriel que l’Amnistie est l’inclusion de contenu problématique dans son rapport “garantit la poursuite de la discussion,” en ajoutant que “il est difficile de savoir” comment l’organisation définie ou classés à ce contenu et s’il pense que Twitter devrait supprimer le contenu problématique à partir de sa plate-forme.

Dans son dernier semestriel rapport de transparence publié la semaine dernière, Twitter a déclaré qu’elle a reçu des rapports sur plus de 2,8 millions de “uniques” comptes pour les abus sexuels (“une tentative de harceler, d’intimider ou de silence de quelqu’un d’autre voix”), près de 2,7 millions de comptes pour les “haineux” de la parole (les tweets qui “promeuvent la violence contre ou directement attaquer ou menacer d’autres personnes sur la base de leur inclusion dans un groupe protégé”), et de 1,35 million de comptes pour les menaces de violence. De ces, la société a pris des mesures—qui inclut jusqu’à la suspension du compte—sur environ 250 000 pour l’abus, de 285 000 pour les haineux de la conduite, et un peu plus de 42 000 pour les menaces de violence.

Gadde dit que Twitter “s’est engagé publiquement à l’amélioration de la santé collective, de l’ouverture et de la civilité de la conversation publique sur notre service” et que l’entreprise est “engagée à organiser nous-mêmes à rendre compte publiquement de progrès” quand il s’agit de maintenir la “santé” des conversations sur sa plate-forme.

Twitter, Gadde également souligné, utilise à la fois l’apprentissage de la machine et de l’homme modérateurs à l’examen en ligne les rapports d’abus. Comme nous l’avons vu clairement sur d’autres plates-formes comme Facebook et Tumblr, l’intelligence artificielle des outils de l’absence de la capacité à comprendre les nuances et le contexte du langage humain, il est un outil inadéquat de sa propre à déterminer si certains contenus sont légitimement abusif. C’est les détails de ces outils que l’Amnistie veut Twitter pour faire plus de public.

“Troll Patrouille n’est pas à propos de la police de Twitter ou de les forcer à retirer le contenu,” Marin dit. “Nous demandons qu’il soit plus transparent, et nous espérons que les résultats de Troll Patrouille va l’obliger à faire ce changement. Surtout, Twitter doit commencer à être transparent sur la façon exacte dont ils sont à l’aide de l’apprentissage de la machine à détecter les abus, et de publier des informations techniques sur les algorithmes ils dépendent.”

Partager Cette Histoire


Date:

by