Finalmente abbiamo Alcuni Dati concreti su Quanto Twitter fa Schifo

Foto: Getty

Nove mesi dopo Amnesty International chiamato su Twitter per essere più trasparenti circa l’abuso sulla sua piattaforma, l’organizzazione ha pubblicato un altro studio che indica che—tenetevi forte—Twitter ha ancora una maledetta online problema di abuso, e in modo schiacciante che colpisce le donne di colore.

Mentre i risultati sono da stupirsi se hai nemmeno mezza sintonizzati alla piattaforma discorso negli ultimi anni, visto il freddo, duro numeri è un promemoria che fa riflettere di Twitter infernale realtà. Lo studio, condotto in tandem con la società di software di Elemento AI, ha trovato che le donne nere sono state 84 per cento più probabilità rispetto alle donne bianche per essere inclusi in un abusivo o problematico tweet. “In dieci tweet che citano le donne nere è stato offensivo o problematico,” Amnesty scrive, “a fronte di uno a quindici per le donne bianche.”

Per condurre lo studio, oltre 6.500 volontari provenienti da 150 paesi guadato attraverso 228,000 tweet inviati a 778 donne, uomini politici e giornalisti di tutto il stati UNITI e il Regno Unito lo scorso anno. In totale, i ricercatori stimano che nel corso dell’anno, problematica o abusivo tweet è stato inviato per la donna di volontari ogni 30 secondi, in media.

“Il rapporto ha trovato che, come azienda, Twitter è fallito nel suo dovere di rispettare i diritti delle donne online dal non aver adeguatamente indagare e rispondere alle segnalazioni di violenza e di abuso in modo trasparente che porta a molte donne di silenzio o di censurare se stessi sulla piattaforma,” Amnesty scrive.

Risultati chiave di Amnesty cosiddetto “Troll Pattuglia progetto” non sono necessariamente mondo trascendentale—Twitter dilagante tossicità è stata scuro e melmoso, pietra angolare del servizio per anni. Ma aggiungono sudati dati per la critica che Twitter non è ancora possibile ottenere una maniglia sul peggiore dei suoi utenti, che a sua volta ha un impatto negativo sulla più emarginati sulla sua piattaforma.

Secondo lo studio, le donne di colore erano il 34 per cento più probabilità rispetto alle donne bianche per essere citata in un abusivo o problematico tweet. Ha inoltre rilevato che, in totale, 7 per cento dei tweet che citano le donne giornalisti sono stati problematici o abusivo, rispetto a 7.12% di tweet che citano i politici. E il tweet considerati in questo studio non includere mai cancellato i tweet o dall’account Twitter sospeso o disattivato lo scorso anno—probabilmente il peggiore e il più palese esempio.

“Crowdsourcing di ricerca, siamo stati in grado di costruire la prova fondamentale in una frazione del tempo che sarebbe stato un ricercatore di Amnesty, senza perdere il giudizio umano, che è così essenziale, quando guardando il contesto intorno a tweet”, Milena Marin, Senior Advisor per la Ricerca Tattico ad Amnesty International, ha detto in una dichiarazione.

Amnesty definisce abusivo tweet come quelli che “includere contenuti che promuove la violenza o minaccia alle persone in base a razza, etnia, origine nazionale, orientamento sessuale, genere, identità di genere, appartenenza religiosa, età, disabilità o malattia grave”, che possono includere “fisica o sessuale, minacce, auguri per i danni fisici o la morte, il riferimento a eventi violenti, comportamento che induce paura o ripetuti insulti, epiteti, razzista e sessista, tropi, o altri contenuti che degrada a qualcuno”.

Problematico, tweet, invece, di “contenere dannoso o ostile contenuto, soprattutto se ripetuto per un individuo in più occasioni, ma non necessariamente soddisfare la soglia di abuso” e “rafforzare negativi o dannosi stereotipi contro un gruppo di individui (ad esempio, gli stereotipi negativi su di una gara o di persone che seguono una religione).”

Come Amnesty note, abusivo tweet violare Twitter politiche ma le problematiche sono più sfumata e non sempre sono in violazione delle politiche aziendali. L’organizzazione è ancora deciso di includere in questo studio perché, Amnesty scrive, “è importante sottolineare l’ampiezza e la profondità di tossicità su Twitter, nelle sue varie forme e a riconoscere l’effetto cumulativo che contenuti problematici possono avere sulla capacità delle donne di esprimersi sulla piattaforma.”

Vijaya Gadde, Twitter, giuridica e politica di piombo, ha detto Gizmodo in una e-mail che l’Amnistia è l’inclusione di contenuti problematici nel rapporto “garantisce ulteriore discussione”, aggiungendo che “non è chiaro” come l’organizzazione definita o classificate in questo contenuto, se si pensa che Twitter dovrebbe rimuovere contenuti problematici dalla sua piattaforma.

Nella sua ultima semestrale relazione di trasparenza, rilasciato la scorsa settimana, Twitter ha detto che ha ricevuto rapporti su oltre 2,8 milioni di euro “unico account” per abuso (“un tentativo di molestare, intimidire o il silenzio di qualcuno voice”), quasi 2,7 milioni di conti per “odio” discorso (tweet che “promuovere la violenza contro o direttamente attaccare o minacciare altre persone sulla base della loro inclusione in un gruppo protetto”), e 1,35 milioni di conti per le minacce violente. Di questi, la società ha preso di azione che include fino alla sospensione dell’account—su circa 250.000 per abuso, 285,000 per odio condotta, e di poco più di 42.000 per le minacce violente.

Gadde detto che Twitter“, si è pubblicamente impegnata a migliorare la salute collettiva, di apertura e di civiltà della conversazione pubblica sul nostro servizio” e che la società è “impegnata a tenere noi stessi pubblicamente responsabili verso il progresso” quando si tratta di mantenere la “salute” delle conversazioni sulla sua piattaforma.

Twitter, Gadde anche sottolineato, utilizza sia la macchina di apprendimento e umana moderatori a scrivere una recensione online segnalazioni di abuso. Come abbiamo visto chiaramente su altre piattaforme come Facebook e Tumblr, intelligenza artificiale strumenti può mancare la capacità di comprendere le sfumature e contesto del linguaggio umano, rendendolo inadeguato strumento per determinare se un determinato contenuto è legittimamente abusivo. Sono proprio i dettagli di questi strumenti che Amnesty vuole Twitter per rendere più pubblico.

“Pattuglia Troll non si tratta di un controllo di polizia Twitter o costringendolo a rimuovere i contenuti” Marin ha detto. “Stiamo chiedendo di essere più trasparente, e speriamo che i risultati da Troll Pattuglia sarà costretto a fare quel cambiamento. Fondamentalmente, Twitter deve cominciare ad essere trasparenti su come esattamente stanno utilizzando tecniche di apprendimento automatico per rilevare l’abuso, e la pubblicazione di informazioni tecniche sugli algoritmi si basano su.”

Condividi Questa Storia


Date:

by