Video-deling websted, reagerer på kritik over anstødeligt indhold i forbindelse med udgivelse af rapporten i omfanget af dets modereringsproces
@alexhern
Tue 24 Apr 2018 00.30 BST
Sidst opdateret Tir 24 Apr 2018 01.00 BST
YouTube sagde den kvartalsvise rapport ville “være med til at vise fremskridt” virksomheden var at gøre.
Foto: Lionel Bonaventure/AFP/Getty Images
YouTube siger, at det fjernet 8,3 m videoer til at tilsidesætte sine retningslinjer for fællesskabet mellem oktober og December sidste år, da den forsøger at imødegå kritik af voldelige og krænkende indhold på sin hjemmeside.
Selskabets første kvartalsvise moderation rapport er blevet offentliggjort midt voksende klager over sin opfattet evne til at håndtere ekstremistiske og misbrug af indholdet.
YouTube, som er et datterselskab af Google ‘ s moderselskab, Alfabet, er en af de mange internet virksomheder, der er under pres fra nationale regeringer og EU til at fjerne sådanne videoer.
Det sagde den rapport, der var et vigtigt første skridt i beskæftiger sig med problemet, og det ville “være med til at vise fremskridt vi gør, i at fjerne ulovlig indhold fra vores platform”.
I en blogpost, YouTube sagde, at det fjernet mere end 8m videoer mellem oktober og December 2017. “De fleste af disse 8m videoer var spam, eller mennesker, der forsøger at uploade voksen proteinindholdog udgør en brøkdel af en procent af YouTube’ s samlede antal visninger i løbet af denne periode,” post sagde.
YouTube sagde, 6.7 m blev første gang markeret den til fornyet gennemgang ved maskiner snarere end mennesker, og af dem, 76% blev fjernet, før de har modtaget en enkelt visning.
YouTube er også blevet kritiseret over indhold, det giver. Dage efter massemordet på Marjory Stoneman Douglas high school i USA i februar, videoer blev forfremmet, der hævdede, at de overlevende var “krise aktører” implanteret at opbygge falske opposition til kanoner.
Et klip kortvarigt blev nummer et tendenser video på hjemmesiden, før det blev fjernet for at overtræde politikker om chikane og mobning. Youtubes retningslinjer for fællesskabet ikke specifikt forbud mod misinformation eller hoaxes, selvom selskabet ikke har annonceret planer om at linke til Wikipedia-sider til den mest indlysende konspirationsteorier.
Google har lovet at have mere end 10.000 mennesker, der arbejder på at håndhæve sine retningslinjer for fællesskabet ved udgangen af 2018, op fra “tusindvis” gøre jobbet sidste år. De vil i vid udstrækning, men ikke helt, menneskelige vurderinger, der arbejder på YouTube. Det vil også omfatte ingeniører, der arbejder på systemer, såsom registrering af spam, machine learning, og video hashing.
Den aktuelle fjernelse proces kræver mistanke om, at indholdet bliver i første omgang flag, før det så at se, hvis det overtræder retningslinjerne for fællesskabet, før der er truffet en beslutning på dens fjernelse.
Det store flertal af videoer taget ned – mere end 80% – var markeret som suspekte ved en af Googles automatiske systemer, sagde selskabet, snarere end en person.
Disse systemer stort set arbejde på en af tre måder: nogle bruger en algoritme til at tage fingeraftryk upassende optagelser, og så passer det til de fremtidige overførsler, andre spore mistænkelige mønstre af uploads, hvilket er særligt nyttig for registrering af spam.
Et tredje sæt af systemer, der bruger selskabets machine learning-teknologi til at identificere videoer, der overtræder retningslinjerne, der er baseret på deres lighed med tidligere videoer. Den machine learning system, der anvendes til at identificere voldelig ekstremistisk indhold, for eksempel, blev uddannet på 2 millioner hånd-anmeldt videoer.
YouTube sagde, at automatiske markering hjulpet virksomheden med at nå et mål om at fjerne flere videoer tidligere i deres levetid.
Mens machine learning fanger mange videoer, YouTube stadig lader enkeltpersoner flag videoer. Medlemmer af offentligheden, der kan markere en video, som overtræder retningslinjerne for fællesskabet. Der er også en gruppe af enkeltpersoner og 150 organisationer, som er “betroede flaggers” – eksperter på forskellige områder af den anfægtede indhold, der er givet særlige værktøjer til at fremhæve problematisk videoer.
Regelmæssige brugere flag 95% af de videoer, der ikke er fanget af den automatiske registrering, mens tillid flaggers give de andre 5%. Men succesraten er vendt, med rapporter fra pålidelige flaggers, der fører til, at 14% af optag på webstedet, og almindelige brugere kun 5%.
Menneskelige flaggers også øje på en meget anderledes fordeling af videoer, der er rapporteret af maskiner: mere end halvdelen af rapporter fra mennesker blev enten spam eller seksuelt eksplicit indhold.