Tech bedrifter ikke klarer å slutte støtende innhold – gir publikum til å gjøre det skitne arbeidet

6

Som skadelig materiale som fortsetter å vises på nettsteder som YouTube og Facebook, selskaper stole på journalister og borgere til å flagge det – og systemet svikter

‘They’ve been quite content to let the general public or conventional news media do their work for them,’ a media ethics expert said of Silicon Valley.

‘De har vært ganske fornøyd med å la allmennheten eller konvensjonelle media gjør sitt arbeid for dem,” media etikk-ekspert sa i Silicon Valley.
Foto: Sergej Konkov/TASS

YouTube

Tech bedrifter ikke klarer å slutte støtende innhold – gir publikum til å gjøre det skitne arbeidet

Som skadelig materiale som fortsetter å vises på nettsteder som YouTube og Facebook, selskaper stole på journalister og borgere til å flagge det – og systemet svikter

@SamTLevin

e-post

Tirsdag 5. desember 2017 08.01 GMT

Sist endret tirsdag 5. desember 2017 08.02 GMT

Den virale YouTube-videoer omtalt skrikende barn blir torturert, konspirasjonsteoretikere spotter masse skyting ofre og webcam bilder av unge jenter i avslørende klær. Urovekkende klipp trakk millioner av syn, og inntil nylig, ble fortsetter å spre seg på nettstedet.

Deretter timer etter reportere merket dem på YouTube, å be om kommentar, videoer forsvant.

Fjerning av skadelig opptakene illustrert en mørk mønster i Silicon Valley og en vanlig funksjon av noen av de største tech skandaler av 2017: journalister har blitt de facto moderatorer for den mektigste sosiale medier for bedrifter, utsette støtende innhold som selskapene selv har unnlatt å oppdage.

I møte med økende erkjennelse av at Facebook, Google, Twitter og andre har hatt skadelige virkninger på samfunnet – enten slik at trakassering og vold, å spre feilinformasjon eller truende core funksjoner av demokrati – selskapene i stor grad har motstått grunnleggende endringer som vil redusere skade.

Google å leie slew av moderatorer midt ramaskrik over YouTube misbruk av barn videoer

Les mer

Tvert imot, Silicon Valley har holdt seg til sine grunnleggende tro på at tech bedrifter er til syvende og sist ikke ansvarlig for innhold på sine plattformer. De har outsourcet sosiale ansvar til journalister, vaktbikkjer og andre borgere, som har i økende grad tatt på seg rollen som ubetalt moderatorer – flagging fornærmende, farlig og ulovlig materiale, som nettsteder fjern deretter i ansiktet av dårlig publisitet.

Av mange tiltak, og det er et system som svikter.

“De har vært ganske fornøyd med å la allmennheten eller konvensjonelle media gjør sitt arbeid for dem,” sa Jane Kirtley, professor i medier, etikk og jus ved University of Minnesota, som har kritisert Facebook innvirkning på journalistikk. Filosofi, hun sa, var: “‘Maksimere vår tilstedeværelse og våre penger, og hvis noe går galt, vil vi be om tilgivelse.'”

På en ukentlig basis, journalister oppdage åpenbare feil og skremmende innhold, lanserer en forutsigbar syklus av takedowns, unnskyldninger og vage løfter om å re-evaluere. Ofte, selskapenes vilkårlig håndhevelse innsats og utilstrekkelig algoritmer har unnlatt å avvise støtende materiale, selv om det brutt offisielle retningslinjer og standarder.

YouTube, for eksempel, hadde tillatt et bredt utvalg av videoer og “verifisert” tv med barn utnyttelse til å blomstre, i noen tilfeller slik at voldelig innhold for å slippe forbi nettstedet YouTube Barn safety filter. Dusinvis av tv og tusenvis av videoer ble nylig fjernet fra Google-eide nettstedet bare på grunn av åpenbaringer rapportert i BuzzFeed, New York Times og en viral essay på Medium.

Noen familier av masse skyting ofrene har også brukt utallige timer på å forsøke å få YouTube for å fjerne sjikanerende videoer fra konspirasjonsteoretikere. De har beskrevet en følelsesmessig krevende og ofte mislykket prosessen med flagging opptakene.

Men når the Guardian nylig sendt YouTube 10 slike videoer, siden fjernet halvparten av dem for brudd på “policy om trakassering og mobbing” i løpet av timer av en e-post forespørsel.

YouTube er også endret sitt søk algoritmen for å fremme mer anerkjente nyheter kilder etter en dag med negative nyhetene rundt støtende video innhold angripe ofre for Las Vegas masse skyting.

På mandag, YouTube sa at det ville ansette tusenvis av nye moderatorer neste år i et forsøk på å bekjempe barn-misbruk innholdet på samme måte som nettstedet har taklet voldelige ekstremistiske videoer. Med mer enn 10.000 moderatorer totalt på tvers av Google, selskapet sa at det ville fortsette å stole tungt på machine learning for å identifisere problematiske innholdet.

Facebook har også flere ganger blitt tvunget til å reversere kurs og offentlig om unnskyldning etter pinlig eller uetiske beslutninger av algoritmer eller interne moderatorer (som har sagt at de er overbelastet og underbetalt).

ProPublica rapportert denne måneden at Facebook var slik at bolig annonser er ulovlig ekskludere brukere av rase. Det til tross for det faktum at Facebook tidligere sagt at det hadde innført en “machine learning” system for å oppdage og blokkere diskriminerende annonser.

Tech selskapet sa i en uttalelse at dette var en “feil i vår håndhevelse”, og at det var, igjen, det tas i bruk nye beskyttelsestiltak og gjennomgår en politisk vurdering.

Facebook, Google og Twitter ble også tvunget til å endre politikk i år etter journalister avdekket at brukere kan kjøpe annonser som er målrettet mot støtende kategorier, for eksempel personer som anser seg som “Jøde-hatere”.

“De er opptatt av å få så mange øyeepler på så mange annonser som er menneskelig mulig,” sier Don Heider, grunnlegger av Senter for Digital Etikk og Personvern. “Som ikke alltid love godt for hva resultatet kommer til å bli.”

Facebook og Twitter har både overfor intens tilbakeslag for at misbruk og falske nyheter å blomstre, og samtidig stenge kontoer og innlegg med legitime nyheter og utsette å gjøre noe galt. For brukere som er berørt, noen ganger er den beste måten å få handlingen til å fortelle en journalist.

Facebook gjeninnsatt en Tsjetsjensk selvstendighet away år etter the Guardian spurte om sin beslutning om å slå ned på siden for “terroraktivitet”. Reportere’ henvendelser også tvunget stedet for å innrømme at det hadde feilet når det sensurerte innlegg fra en Rohingya gruppe opposisjonelle Myanmar ‘ s militære, som har vært anklaget for etnisk rensing.

Det finnes ingen enkle løsninger for å moderering gitt omfanget og kompleksiteten av innholdet, men eksperter sa selskaper skal investere betydelig mer ressurser til ansatte med journalistikk og etikk bakgrunn.

Facebook er et faktum-kontrollere arbeidet, som har vært mislykket, ifølge noen innsidere – bør involvere et stort team av full-time journalister som er strukturert som en redaksjon, sa Kirtley: “De må begynne å opptre som en nyhet drift.”

Reem Suleiman, kampanjeleder med SumOfUs, et ikke-for-profit organisasjon som har kritisert Facebook for å ha en “rasistisk partisk” kontrollsystem, hevdet at bedrifter bør være mer transparent, slipper interne data og forklare hvordan deres algoritmer arbeid: “Uten det arbeid som journalister jage ned noen av denne beskjed, vi er bare helt igjen i mørket.”

Claire Wardle, stipendiat ved Shorenstein Center på Media, Politikk og Offentlig Politikk ved Harvard, sa plattformene var i ferd med å utvikle mer robuste fagmiljøer gjør moderering arbeid. Likevel, sa hun, det var “sjokkerende” at Twitter ikke ville ha oppdaget propaganda kontoer som en gruppe av BuzzFeed reportere uten tilgang til interne data var i stand til å avdekke.

OSS pistol vold gyter en ny epidemi: konspirasjonsteoretikere trakassering av ofrene

Les mer

“Den kyniske siden av meg mener at de ikke er ute, fordi de ikke ønsker å finne det,” sa hun.

En Twitter-talsmann spioneringen sin maskin læring teknologi og sa det oppdaget og blokkerer 450,000 mistenkelige pålogginger hver dag. Uttalelsen også roste arbeidet i media og sa: “Vi ønsker velkommen rapportering som identifiserer Twitter-kontoer som bryter våre vilkår for bruk, og setter pris på at mange journalister selv bruker Twitter til å identifisere og avsløre slik desinformasjon i sanntid.”

En Facebook-talsmannen bemerket at selskapet var å ansette tusenvis av mennesker til å gå gjennom innholdet, og vil ha på 7500 totalt ved slutten av året. Som team jobber med å vurdere om innholdet bryter “retningslinjene”, talsmann bemerket, og legger til, “Vi er ikke den arbiters av sannheten.”