“Hon fastnade i lik” var hur en åklagare som beskrivs i
En 18-årig Ohio kvinna som anklagas för live-streaming påstådda våldtäkt på henne
17-åriga vän. Det är ingen tvekan om att live-stream-appar, som till exempel
Periskop och Facebook Live Video, riskera att utsätta publiken
till avskyvärda bilder. I sällsynta men upprörande händelser, användare har sett
som självmord, våldtäkt eller våld i hemmet utvecklas i realtid innan deras
ögon.
Jobbet för att titta och ta bort våld eller pornografiskt innehåll
från dessa live-appar, liksom video webbplatser som YouTube, har
i första hand varit ett mänskligt företag. Arbetstagare med uppgift innehåll
måtta översyn timmar video flaggats som olämpliga av användare,
att ta ner allt som bryter mot riktlinjerna. Det är en ansträngande och på
gånger fruktansvärda jobb, och den stora mängden av innehåll gör det till en utmaning
för arbetskraft ensam. Nu, artificiell intelligens är redo att hjälpa till med
denna uppgift.
Programvara som kan intelligent titta på video är att vara
som utvecklats av flera företag, bland annat både Twitter och Facebook, för
använd på deras live-stream-tjänst, Periskop och Facebook Live-Video.
Företag
som Clarifai och Dextro har gjort stora vinster i att utveckla denna
typ av sofistikerad programvara. Dextro, en New York-baserad
start-up, använder video erkännande AI för att enkelt söka igenom innehållet på
live-stream apps. Det behöver inte övervaka för olämpligt innehåll rätt
nu, istället scanning för video som kan vara intressant och relevant
för att ett företags varumärke. Men tekniken eller liknande programvara som kan
enkelt användas för att sålla ut porr eller våld.
Grundare David Luan
sa utmaningen ligger i att skapa programvara som kan tolka inte
bara stillbilder, men rörliga bilder, ljud och andra “signifiers”
visa vad det är som händer i videon. “Det är som att försöka
re-skapa en mänsklig upplevelse av att titta på dessa videor,” Luan sade.
Företag
traditionellt förlitat sig på taggar för att ange karaktären av en video
innehåll till en dator, men Luan sa att minska betydelsen av en
video till ett par viktiga ord inte riktigt fånga sin fulla
tillämpningsområde.
“Vad är utmanande om dessa filmer är att de är
mycket mer komplex än bara en enda bild. Även om det är en serie
av alla bilder, den ena efter den andra, det är den rörelse element,
ljud, så mycket av att kastas bort om du bara analysera bilden efter
bild”, sade han. “Så du verkligen behöver för att behandla det som ett helt stycke och
analysera”, som förlitar sig på taggar kan uppnå.
Dextro s
programvara, å andra sidan, kan känna igen föremål och signifiers i en
ram utan mänskligt ingripande, till exempel en pistol i en potentiellt våldsamma
video. Och hastigheten av AI: s erkännande ger det en enorm ben upp
mänskliga skärmar. Luan programvara kan analysera en video inom 300
millisekunder av inlägg.
Cortex, Twitter divisionen fokuserat på
Periskop-övervakning AI, har arbetat på programvara som kan titta på och
rekommendera live video har sedan starten i juli 2015. “Periskop har varit
arbetar med Twitter ‘ s Cortex team för att experimentera med olika sätt att
kategorisera och identifiera innehållet i live-sändningar,” en talesman Twitter
sade i ett uttalande. “Laget är fokuserat på att para ihop avancerad
teknik med en redaktionell metod för att ge en sömlös upptäckt
erfarenhet på Periskop.” Cortex inte har kunnat bekräfta när de skulle vara
rulla ut sin produkt.
Facebook bekräftar att företaget
inte för närvarande använda AI för att filtrera ut pornografiskt eller våldsamma filmer,
och avböjde att kommentera om AI-program håller på att utvecklas.
Mänskliga
innehåll måtta har traditionellt varit outsourcad till länder
som Filippinerna. Även i en framtid där AI står för det mesta av arbetet,
Luan ser en roll för mänskligt ingripande. “Människor hjälp att omskola
algoritm och hjälpa det att bli bättre med tiden,” sade han i sitt företag:
video-titta på AI.
Men i efterdyningarna av de mest sedda filmer
och live-strömmar av dödsfall av Philando Kastilien och Alton Pund på
händerna på polisen, frågan om när censur är etiskt eller
lämpliga utgör en utmaning för teknisk utvecklare i rollen innehåll
moderator. Hur skulle en maskin hantera dessa filmer, om det så småningom
tar över som premiärminister moderator?
“Nationernas variera mycket i sin
grad av inskränkning av tryck-och yttrandefriheten till att börja med, och
även inom vårt eget land finns det vissa livsstilar vars
utövare samlas i gemenskap i klubben som skulle kunna betraktas som
opassande av en eller flera religiösa grupper, säger Malcolm Lyssna, en
sekretess expert. “Så definitionen av opassande innehåll skulle
av nödvändighet vara gjort av människor, och är sannolikt den mest komplexa
och utmanande att bygga en del av programmet.”
© 2016 Washington Post