Tech företag misslyckas med att stoppa kränkande innehåll – att lämna allmänheten för att göra det smutsiga arbetet

Som skadligt material fortsätter att visas på webbplatser som YouTube och Facebook, företag förlitar sig på journalister och medborgare att flagga för det – och det systemet inte

‘They’ve been quite content to let the general public or conventional news media do their work for them,’ a media ethics expert said of Silicon Valley.

“De har varit ganska innehåll att låta allmänheten eller konventionella medier gör sitt arbete på ett för dem,” en pressetik som expert sa i Silicon Valley.
Foto: Sergei Konkov/TASS

YouTube

Tech företag misslyckas med att stoppa kränkande innehåll – att lämna allmänheten för att göra det smutsiga arbetet

Som skadligt material fortsätter att visas på webbplatser som YouTube och Facebook, företag förlitar sig på journalister och medborgare att flagga för det – och det systemet inte

@SamTLevin

e-post

Tisdag 5 December 2017 08.01 GMT

Senast uppdaterad tisdag 5 December 2017 14.31 GMT

Den virala YouTube-videor med skrikande barn torteras, konspirationsteoretiker hån massa skytte offer och webcam bilder av unga flickor i avslöjande kläder. Den störande klipp drog miljoner synpunkter och, fram tills nyligen, var att fortsätta att sprida på plats.

Sedan, timmar efter reportrar som lyfts fram dem till YouTube för att be om kommentarer, videoklipp försvann.

Borttagning av skadliga bilder illustrerade ett mörkt mönster i Silicon Valley och en gemensam funktion av några av de största tech skandaler av 2017: journalisterna har blivit de facto moderatorer för de mest kraftfulla sociala medier för företag, utsätta stötande innehåll att företagen själva har misslyckats med att upptäcka.

Inför en ökande insikt om att Facebook, Google, Twitter och andra har haft skadlig inverkan på samhället – om möjligt för trakasserier och våld, att sprida desinformation eller hotar grundläggande funktioner och demokrati – de företag som i stor utsträckning har stått emot de grundläggande förändringar som skulle minska skadorna.

Google för att hyra massa moderatorer mitt ramaskri över YouTube övergrepp mot barn videor

Läs mer

Tvärtom, Silicon Valley har fastnat till sin grundläggande tro på att tech företag är i slutändan inte ansvarig för innehållet på sina plattformar. De har lagt ut sociala ansvar att journalister, väktare och andra medborgare, som har allt mer tagit på sig rollen av obetalda moderatorer flaggning kränkande, farligt och olagligt material, som platser för att sedan ta bort i ansiktet av dålig publicitet.

Genom att många åtgärder, det är ett system som inte fungerar.

“De har varit ganska nöjd med att låta allmänheten eller konventionella medier gör sitt arbete på ett för dem”, sade Jane Kirtley, professor i medie-etik och juridik vid University of Minnesota, som har kritiserat Facebook inverkan på journalistiken. Den filosofi, som hon sade var: “‘Maximera vår närvaro och våra pengar, och om något går fel, kommer vi att be om förlåtelse.’”

Om en vecka, reportrar upptäcker uppenbara brister och alarmerande innehåll, lansering av en förutsägbar cykel av nedtagningar, ber om ursäkt och vaga löften om att omvärdera. Ofta företagen godtycklig verkställighetsåtgärder och otillräcklig algoritmer har misslyckats med att avvisa den kränkande material, även om det brutit mot den officiella politiken och standarder.

YouTube, till exempel, är det tillåtet med ett brett utbud av filmer och “kontrollerat” kanaler på utnyttjande av barn för att blomstra, i vissa fall möjligt för våldsamt innehåll att glida förbi platsen YouTube-Kids safety-filtret. Massor av tv-kanaler och tusentals videor togs nyligen bort från Google-ägda sajten endast på grund av uppenbarelser som redovisas i BuzzFeed, New York Times och en viral uppsats på medelvärme.

Vissa familjer av massa skytte offer har också spenderat otaliga timmar med att försöka få YouTube att ta bort trakasserande videor från konspirationsteoretiker. De har beskrivit en känslomässigt påfrestande och ofta misslyckade processen för att markera bilderna.

Men när the Guardian nyligen skickade YouTube-10 sådana filmer, platsen bort hälften av dem för brott mot “politik för trakasserier och mobbning” inom några timmar efter en e-post förfrågan.

YouTube också ändrat sin sökalgoritm för att främja ett mer seriösa nyheter källor efter en dag av negativ nyhetsbevakning kring kränkande innehåll i video attackerar offer för Las Vegas massa fotografering.

På måndag, YouTube sade att det skulle anställa tusentals nya moderatorer nästa år i ett försök att bekämpa övergrepp mot barn innehållet på samma sätt som den webbplats har tagit itu med våldsamma extremistiska videor. Med mer än 10.000 moderatorer totalt på Google, företaget sa att det skulle fortsätta att förlita sig tungt på maskinen att lära sig att identifiera problem med innehåll.

Facebook förbjuder kvinnor för inlägg “män är avskum” efter trakasserier skandaler

Läs mer

Facebook har också upprepade gånger varit tvungen att vända kurs och offentligt be om ursäkt efter pinsamt eller oetiska beslut av algoritmer eller inre moderatorer (vem har sagt att de är överbelastade och underbetalda).

ProPublica rapporteras denna månad att Facebook var att tillåta bostäder annonser för att olagligt att utesluta en användare av ras. Det är trots det faktum att Facebook tidigare sade att det hade inrättats en “machine learning” system för att upptäcka och blockera diskriminerande annonser.

Tech-företaget sade i ett uttalande att detta var ett “misslyckande i vår tillämpning” och att det var, återigen, att införa nya skyddsåtgärder och genomgår en översyn.

Facebook, Google och Twitter var också tvungen att ändra politiken i år efter reportrar visat att användare kan köpa annonser riktade till offensiv kategorier, till exempel människor som anser sig vara “Jude hatare”.

“De är angelägna om att få in så många ögon på att så många annonser som är mänskligt möjligt,” sade Don Heider, grundare av Center for Digital Etik och Politik. “Att inte alltid bådar gott för vad resultatet kommer att bli.”

Facebook och Twitter har både mött hård backlash för att tillåta övergrepp och falska nyheter att blomstra samtidigt stänga konton och tjänster med legitima nyhets och avslöja oegentligheter. För användare som påverkas, ibland är det bästa sättet att få åtgärder är att berätta för en journalist.

Facebook återinförs en Tjetjensk oberoende aktivist grupp detta år efter Väktare frågade om sitt beslut att stänga ner sidan för “terrorism”. Reportrar’ undersökningar också tvingat sajten att erkänna att den hade gjort fel när det censurerade inlägg från en Rohingya grupp motsatta burmas militär, som har blivit anklagad för etnisk rensning.

Det finns inga enkla lösningar för att måtta med tanke på omfattningen och komplexiteten i innehållet, men experter säger att företag bör satsa betydligt mer resurser till personal med journalistik och etik bakgrunder.

Facebook är faktakontroll arbete – vilket har varit misslyckade, enligt vissa insiders – borde innebära att en stor grupp av heltid journalister som är uppbyggd som en newsroom, sade Kirtley: “De måste börja agera som en nyhet drift.”

Reem Suleiman, har kämpat med SumOfUs, en icke-vinstdrivande organisation som har kritiserat Facebook för att ha ett “rasistiskt partisk” måtta system, hävdade att företag bör vara mer transparent, att frigöra interna data och förklarar hur deras algoritmer fungerar: “Utan det arbete som journalister jagar ner en del av denna information, vi är bara helt kvar i mörkret.”

Claire Wardle, research fellow vid Shorenstein Center på Media, Politik och Offentlig Politik vid Harvard, sade plattformar var att börja utveckla mer robust specialister gör måtta arbete. Fortfarande, sade hon, att det var “chockerande” för att Twitter inte skulle ha upptäckts propaganda-konton som en grupp av BuzzFeed reportrar utan tillgång till interna data kunde avslöja.

OSS pistol våld leker en ny epidemi: konspirationsteoretiker trakasserande offer

Läs mer

“Den cyniska sidan av mig tycker att de är inte ute, eftersom de inte vill hitta det,” sade hon.

Ett Twitter-representant utropat sin maskin att lära tekniken och sa att det upptäcks och block 450,000 misstänkta inloggningar varje dag. Det uttalande som också berömde arbetet i media, säger: “Vi välkomnar rapportering som identifierar Twitter-konton som bryter mot våra användarvillkor, och uppskattar att många journalister själva använder Twitter för att identifiera och avslöja sådan desinformation i realtid.”

En Facebook-representant konstaterade att företaget var att anställa tusentals människor att se över innehåll och kommer att ha 7,500 totalt i slutet av året. Som team arbetar med att utvärdera om innehållet bryter mot “samhället normer”, representant konstaterade att lägga till, “Vi är inte smakdomare sanningen.”


Date:

by