Foto: Getty
Ni måneder etter at Amnesty International heter på Twitter for å bli mer åpen om overgrep på sin plattform, og organisasjonen har publisert en annen studie som viser at—spenne deg selv—Twitter har fortsatt en fordømmende online misbruk problem, og det overveldende rammer kvinner av farge.
Mens funnene er neppe overraskende hvis du har en halv-tunet inn i plattformen er tale over de siste årene, ser den kalde, harde tall er en tankevekkende påminnelse om Twitter er grusomme virkeligheten. Studien, som ble gjennomført i tandem med programvare selskapet Element AI, fant at svarte kvinner var 84 prosent mer sannsynlig enn hvite kvinner til å bli inkludert i en fornærmende eller problematisk tweet. “Én av ti tweets å nevne svarte kvinner var fornærmende eller problematisk,” Amnesty skriver: “i forhold til en i femten for hvite kvinner.”
For å gjennomføre studien, over 6,500 frivillige fra 150 land vasset gjennom 228,000 tweets sendt til 778 kvinner politikere og journalister over hele USA og Storbritannia i fjor. I sum, forskere anslår at i løpet av året, en problematisk eller fornærmende tweet ble sendt til kvinnen frivillige hver 30 sekunder, i gjennomsnitt.
“Rapporten fant at som et selskap, Twitter mislykkes i sitt ansvar for å respektere kvinners rettigheter online ved å unnlate å tilstrekkelig å undersøke og reagere på rapporter om vold og overgrep på en gjennomsiktig måte som fører til at mange kvinner stillhet eller sensurere seg på plattformen,” skriver Amnesty.
De viktigste funnene fra Amnesty ‘ s såkalte “Troll Patrol prosjektet” er ikke nødvendigvis verden-knuste—Twitter er frodig toksisitet har blitt en mørk og slimete hjørnesteinen i tjenesten for år. Men de legger hardt opptjente data til kritikk at Twitter fortsatt ikke kan et håndtak på sitt verste brukere, som i sin tur er negativ innvirkning på de mest marginaliserte mennesker på sin plattform.
Ifølge studien, kvinner av farge var 34 prosent mer sannsynlig enn hvite kvinner å bli nevnt i en fornærmende eller problematisk tweet. Det er også funnet som en sum av 7 prosent av tweets, for å nevne kvinner journalister var problematisk eller fornærmende, i forhold til 7.12 prosent av tweets, for å nevne politikere. Og tweets vurdert i denne studien ikke har slettet tweets eller de fra kontoer Twitter suspendert eller deaktivert siste året—trolig den dårligste og mest åpenbare eksempler.
“Ved crowdsourcing forskning, var vi i stand til å bygge opp viktige bevis i en brøkdel av tiden det ville ta en Amnesty forsker, uten å miste den menneskelige dom som er så viktig når man ser på konteksten rundt tweets” Milena Marin, seniorrådgiver for Taktisk Forskning ved Amnesty International, sa i en uttalelse.
Amnesty definerer fornærmende tweets som de som “inkluderer innhold som fremmer vold mot eller trusler mot mennesker basert på rase, etnisitet, nasjonal opprinnelse, seksuell legning, kjønn, kjønnsidentitet, religiøs tilhørighet, alder, funksjonshemming eller alvorlig sykdom”, som kan inkludere “fysiske eller seksuelle trusler, ønsker for fysisk skade eller død, referanse til voldelige hendelser, atferd som fremmer frykt eller gjentatte uttalelser, tilnavn, rasistiske og sexistiske tropes, eller annet innhold som forringer noen.”
Problematisk tweets, på den annen side, “inneholder sårende eller fiendtlige innhold, spesielt hvis gjentatt til en person eller flere anledninger, men ikke nødvendigvis møte terskelen for misbruk” og “kan forsterke negative eller skadelige stereotypier mot en gruppe individer (f.eks. negative stereotypier om en rase eller folk som følger en bestemt religion).”
Som Amnesty notater, fornærmende tweets brudd på Twitter politikk, men problematisk, de er mer nyansert, og er ikke alltid i strid med selskapets retningslinjer. Organisasjonen fortsatt besluttet å inkludere dem i denne studien fordi, Amnesty skriver: “det er viktig å understreke bredden og dybden av toksisitet på Twitter i sine ulike former og å gjenkjenne den kumulative effekten som problematisk innhold kan ha på muligheten for kvinner til fritt å uttrykke seg på plattformen.”
Vijaya Gadde, Twitter juridisk og politisk leder, fortalte Gizmodo i en e-post som Amnesty er inkludering av problematiske innholdet i sin rapport “garanterer en videre diskusjon,” og legger til at “det er uklart hvordan organisasjonen er definert, eller klassifisert dette innholdet, og om det synes Twitter bør fjerne problematiske innholdet fra sin plattform.
I sin siste halvårlige åpenhet rapporten, som ble lansert forrige uke, Twitter sa at det mottatt rapporter på over 2,8 millioner “unike regnskap” for misbruk (“et forsøk på å sjikanere, true eller stillhet andres stemme”), nesten 2,7 millioner kontoer for “hatefulle” ytringer (tweets som “fremmer vold mot eller direkte angrep eller truer andre mennesker på grunnlag av deres inkludering i en beskyttet gruppe”), og 1,35 millioner kontoer for voldelige trusler. Av disse, er selskapet tok saken—som inneholder opp til suspensjon av konto—på ca 250.000 for misbruk, 285,000 for hatefull atferd, og bare over 42,000 for voldelige trusler.
Gadde sa at Twitter “har offentlig forpliktet til å forbedre den kollektive helse, åpenhet og høflighet av offentlige samtalen om vår tjeneste” og at selskapet er “forpliktet til å holde oss offentlig ansvar overfor pågår” når det kommer til å opprettholde den “helse” av samtaler på sin plattform.
Twitter, Gadde også påpekt at en bruker både maskin-læring og menneskelig moderatorer til å skrive en anmeldelse online misbruk rapporter. Som vi har sett tydelig på andre plattformer som Facebook og Tumblr, kunstig intelligens verktøy kan manglende evne til å forstå nyansene og sammenheng i menneskelig språk, noe som gjør det til et utilstrekkelig verktøy på egen hånd for å finne ut om noe av innholdet er legitimt fornærmende. Det er detaljene av disse verktøyene som Amnesty ønsker Twitter for å få mer offentlig.
“Troll Patrol er ikke om politiarbeid Twitter eller tvinge den til å fjerne innhold,” Marin sa. “Vi ber det til å bli mer åpen, og vi håper at resultatene fra Troll Patrulje vil tvinge den til å gjøre som du vil endre. Det som er avgjørende, Twitter må begynne å være åpne om hvordan de bruker maskinen lære å oppdage overgrep, og publisere teknisk informasjon om algoritmene som de stoler på.”
Deler Denne Historien