Facebook Ist Mit Neuen AI-Tools zum Erkennen von Kinderpornografie und Fangen Raubtiere

Foto: Getty

Facebook ist mit Hilfe von neuen machine-learning-tech-flag Ausbeutung von Kindern und Nacktheit auf den service der Firma global-Sicherheits-Leiter Antigone Davis heute bekannt gegeben. Im letzten Quartal allein, Davis, sagt die neue tools dazu beigetragen, das Unternehmen löschen “8,7 Millionen Stück Inhalte”, die Sie “verletzt unser Kind Nacktheit und sexuelle Ausbeutung von Kindern-Richtlinien.”

Facebook lehnt sich auf beide, AI und Menschen zum herausfiltern von seiner übelsten Inhalt. Es hat bisher bereitgestellt andere AI-tools, um den unangemessenen und unzulässige Inhalte, einschließlich der Foto-matching-tech. Auf top von, dass, Facebook, sagte seine bisher unangekündigte tools werden eingesetzt “zur proaktiven Erkennung Kind Nacktheit und bisher unbekannte Kind ausbeuterischen Inhalts, wenn es hochgeladen ist,” Davis schrieb in einem blog-post. Er fügte hinzu, dass diese, wie auch andere tech, wird verwendet, um “schneller” finden diese Art von Inhalten und ein Bericht an das National Center for Missing and Exploited Children (NCMEC).

Die neuen Werkzeuge werden auch verwendet, um herauszufinden, “Konten, die sich in potentiell unangemessene Interaktionen mit Kindern” auf der Plattform. Wir haben erreicht aus auf Facebook für Informationen über das, was als eine potenziell ungeeignete Interaktion, den wir aber nicht sofort wieder hören. Davis sagte Reuters, dass dieses system den Blick auf Faktoren, einschließlich der Frequenz, für die jemand gesperrt wurde und ob Sie versuchen, setzen eine Menge Kinder.

David sagte Reuters, dass die “Maschine hilft uns, zu priorisieren” und “effizienter Warteschlange” Inhalte, die möglicherweise gegen Facebook-Richtlinien für seine Rezensenten, und dass es vielleicht mit dieser tech moderieren Instagram. Ein Bericht im letzten Monat enthüllt, dass der Instagram-video-Dienst IGTV empfohlen hatte videos Ausbeutung von Kindern.

Wir haben erreicht aus auf Facebook zu Fragen, ob seine neuen tools werden die Pflichten an die Moderatoren. Es gibt zahlreiche Berichte detailliert die psychologische Maut diesem höllischen job nimmt auf Menschen, die es zu durchforsten Grafik und gewaltverherrlichende Inhalte. In der Tat, ein ehemaliger Facebook-moderator vor kurzem verklagte die Firma, über die “schwächenden PTSD,” der behauptet, dass der job verursacht Ihre schweren Traumatisierungen und dass die Firma nicht leisten Auftragnehmer mit der nötigen psychischen Gesundheit Dienstleistungen, die mit ihm zu beschäftigen.

Facebook die eigene machine-learning-detection-Programme haben sich bewährt, voreingenommen und fehlerhaft in der Vergangenheit. Dies war die meisten notorisch auf dem display, wenn Facebook verboten (und nachher wieder) den Pulitzer-Preis gewinnen-Foto von vietnamesische Kinder fliehen, ein Süd-Vietnamesischen napalm-Angriff—das Foto bietet einen schwer verbrannten, nackten Jungen Mädchen.

“Wir lieber irren auf der Seite der Vorsicht,” Davis sagte Reuters, feststellend, dass seine Hightech-flag Kind ausbeuterische Inhalte können mess up, aber das können die Menschen appellieren, diese screwups. Facebook angeblich sagte, das neue Programm wird Ausnahmen zu machen, für Kunst und Geschichte. Das wäre auch die oben genannten Pulitzer-Gewinner-Foto.

Teilen Sie Diese Geschichte


Date:

by