Facebook Is Met Nieuwe AI-Instrumenten voor het Opsporen kinderporno en Vangen Roofdieren

Foto: Getty

Facebook is met behulp van nieuwe machine learning tech vlag exploitatie van kinderen en naakt op de service, het bedrijf is de wereldwijde veiligheid hoofd Antigone Davis vandaag bekend. In het laatste kwartaal alleen, Davis zegt dat de nieuwe tools van het bedrijf geholpen verwijderen “8,7 miljoen stuks van de inhoud” dat “geschonden ons kind van naaktheid of seksuele uitbuiting van kinderen beleid.”

Facebook leunt op zowel de AI en de mensen om onkruid uit de meest verachtelijke inhoud. Het heeft eerder geïmplementeerd andere AI tools om de vlag ongepast en het schenden van de inhoud, inclusief foto-matching tech. Op de top van dat, Facebook, zei het eerder onaangekondigde tools worden gebruikt “om proactief te detecteren kind naaktheid en onbekende kind uitbuitende inhoud als het uploaden,” Davis schreef in een blog post. Hij voegde eraan toe dat dit, evenals andere tech, wordt gebruikt om “snel” vinden dit soort van inhoud en rapporteren aan het National Center for Missing and Exploited Children (NCMEC).

De nieuwe instrumenten zullen ook worden gebruikt om te zoeken naar “accounts die zich bezighouden met potentieel ongeschikte interacties met kinderen” op het platform. We hebben bereikt op Facebook voor meer informatie over wat een mogelijk ongepaste interactie, maar we hadden niet direct terug horen. Davis vertelde Reuters dat dit systeem zal worden gekeken naar factoren zoals de frequentie waarvoor iemand is geblokkeerd en of ze proberen contact met veel kinderen.

David vertelde Reuters dat de “machine helpt ons prioriteit te geven aan” en “efficiënter wachtrij” content die in strijd is met Facebook ‘ s beleid voor de recensenten, en dat zij gebruik kan maken van dezelfde tech te helpen matige Instagram. Een verslag vorige maand bleek dat Instagram ‘s video-service IGTV had aanbevolen video’ s van de exploitatie van kinderen.

We hebben een handreiking gedaan aan Facebook om te vragen of de nieuwe instrumenten van invloed op de taken van de moderators. Er zijn tal van rapporten waarin de psychologische tol deze helse job neemt op de mensen die te ziften door middel van grafische en gewelddadige inhoud. In feite, een voormalige Facebook moderator onlangs aangeklaagd het bedrijf over “het afmatten PTSS,” beweerde dat de baan veroorzaakt haar ernstige psychologische trauma ‘ s en dat het bedrijf niet veroorloven aannemers nodig van de geestelijke gezondheidszorg aan te pakken.

Facebook ‘s eigen’ machine learning ‘- detectie programma ‘ s hebben bewezen zowel bevooroordeeld en gebrekkig in het verleden. Dit was het meest berucht op het display wanneer Facebook verboden (en vervolgens weer in ere hersteld) de Pulitzer-prijs winnende foto van Vietnamese kinderen op de vlucht een Zuid-Vietnamese napalm-aanval—de foto is voorzien van een ernstig verbrand, naakte jonge meisje.

“We liever het zekere voor het onzekere,” Davis vertelde Reuters, vaststellend dat de tech vlag kind uitbuitende inhoud kan verknoeien, maar dat mensen een beroep kunnen doen op deze screwups. Facebook naar verluidt gezegd dat dit nieuwe programma wordt een uitzondering gemaakt voor kunst en geschiedenis. Dat zou bestaan uit de eerder genoemde Pulitzer-winnende foto.

Deel Dit Verhaal


Date:

by