Facebook Er ved Hjælp af Nye AI-Værktøjer til at Opdage børneporno og Fange Rovdyr

Foto: Getty

Facebook er ved hjælp af nye machine learning tech til flag udnyttelse af børn og nøgenhed på den service, virksomhedens globale sikkerhed hovedet Antigone Davis meddelte i dag. I sidste kvartal alene, Davis siger, at de nye værktøjer, som har hjulpet virksomheden slet “8.7 millioner stykker af indhold”, at “overtrådt vores barn nøgenhed eller seksuelle udnyttelse af børn politikker.”

Facebook læner sig på både AI og mennesker til at luge ud i sin mest modbydelige indhold. Det har tidligere indsat andre AI værktøjer til at anmelde upassende og krænkende indhold, herunder foto-matchende tech. På toppen af, at Facebook sagde sin tidligere uanmeldte værktøjer bliver brugt “til proaktivt at opdage barn nøgenhed og hidtil ukendt barn udnyttende indhold, når den er uploadet,” Davis skrev i et blogindlæg. Han tilføjede, at denne, såvel som andre tech, vil blive brugt til at “hurtigere” finde denne type indhold og for at rapportere det til National Center for Missing and Exploited Children (NCMEC).

De nye værktøjer, vil også blive brugt til at finde “konti, der engagere sig i potentielt uhensigtsmæssige interaktioner med børn” på den platform. Vi har nået ud til at Facebook for at få oplysninger om, hvad der udgør en potentielt upassende interaktion, men vi har ikke umiddelbart høre tilbage. Davis, fortalte Reuters, at dette system vil se på faktorer, herunder hyppigheden for, hvor nogen er blevet blokeret, og om de forsøger at kontakte en masse børn.

David sagde til Reuters, at “maskinen hjælper os med at prioritere” og “mere effektivt kø” indhold, der muligvis krænker Facebook ‘ s politikker for sine vurderinger, og at det kan bruge denne samme tech til at hjælpe moderat Instagram. En rapport i sidste måned afslørede, at Instagram ‘ s video service IGTV havde anbefalet videoer af børn, seksuel udnyttelse af børn.

Vi er nået ud til at Facebook til at spørge, om sin nye værktøjer, som vil påvirke de opgaver, af dets redaktører. Der har været mange rapporter, der beskriver den psykologiske vejafgift dette helvedes jobbet tager på mennesker, der er nødt til at finkæmme gennem grafiske og voldelige indhold. I virkeligheden, en tidligere Facebook moderator for nylig sagsøgt selskabet over “invaliderende PTSD,” den påstand, at de job, der er forårsaget hendes alvorlige psykiske traumer, og at selskabet ikke har råd til entreprenører med behov for mental health services til at beskæftige sig med det.

Facebook ‘ s egne machine learning detection programmer har vist sig at være både op og forkert i fortiden. Dette var mest notorisk på displayet, når Facebook forbudt (og senere genindsat) den Pulitzer-prisvindende fotografi af Vietnamesiske børn er på flugt fra en sydvietnamesiske napalm angreb—foto har et alvorligt forbrændt, nøgen ung pige.

“Vi vil hellere fejle på siden af forsigtighed,” Davis, fortalte Reuters, at bemærke, at dens tech til flag barn udnyttende indhold kan lave rod, men at folk kan appellere disse screwups. Facebook angiveligt sagde, at dette nye program vil gøre undtagelser for kunst og historie. Der ville omfatte de førnævnte Pulitzer-vindende foto.

Opdatering 8:15pm ET: EN Facebook-talsmand fælles følgende bemærkning: “De værktøjer hjælpe med at filtrere det indhold, bedre for menneskelig gennemgang. Vi er nu ved hjælp af mere avanceret teknologi (AI og ML) til at registrere, hvis den nude billedet er sandsynligvis til at indeholde et barn, og hvis det er tilfældet, så send det til en dedikeret kø med specielt uddannet korrekturlæsere, der kan mere effektivt at skride til handling, når det er nødvendigt, herunder ved at fjerne indhold og rapportering er det National Center for Missing and Exploited Children (NCMEC).”

Dele Denne Historie


Date:

by