Facebook Sagt, Es Wird mit der KI-Polizei Rache-Porno, aber Es wird nicht Vollständig Erklären, Wie (Aktualisiert)

Foto: Getty

In der Abwesenheit von proaktiven tools, um zu verhindern, dass dirtbags von nonconsensually hochladen von intimen Fotos im internet, Opfer von Rache-Pornos haben wenig surefire Rückgriff zu gewährleisten, die Fotos stauen online. Es ist eine anstrengende, zerstörerische Spiel von whack-a-mole, und auch wenn die Bilder effektiv geschrubbt werden, der Schaden getan worden ist. Das ist, warum Facebook die Ankündigung heute, dass es mehr sein Programm zur Polizei nonconsensual Bild-sharing-fühlt sich an wie ein Hoffnungsschimmer im Kampf gegen Rache-Pornos.

Aber Facebook ist die Letzte Bemühung, so vielversprechend, wie es ist, bleibt frustrierend vage, verlassen anfällig Nutzer mit den wichtigsten Fragen unbeantwortet.

Facebook kündigte in einem blog-post am Freitag die “new-detection-Technologie”, die helfen, fahne und entfernen Intim freigegebene Fotos auf seiner Plattform, ohne die Person Ihre Einwilligung gegeben. “Durch den Einsatz des maschinellen Lernens und der künstlichen Intelligenz, können wir jetzt proaktiv erkennen, die in der Nähe nackt Bilder oder videos, die geteilt werden, ohne Erlaubnis auf Facebook und Instagram,” Antigone Davis, Facebook ‘ s global head of safety, schrieb in der post. “Das bedeutet, wir finden diesen Inhalt, bevor jemand berichten, was aus zwei Gründen wichtig: oft haben die Opfer Angst vor Vergeltung, so dass Sie nur ungern zu berichten, die Inhalte selbst oder sind sich nicht bewusst der Inhalt geteilt wurde.”

Die Technologie, die Facebook am Freitag bekannt gegeben wird erkennen, intime Fotos, die bereits hochgeladen wurde auf Facebook und Instagram. Ein speziell ausgebildetes Mitglied” der Facebook-Community Operations team wird dann überprüfen Sie die Bilder und entfernen Sie Sie von der Plattform aus, wenn Sie gefunden werden, die in Verletzung der social network Community-Standards. Das team wird auch deaktivieren Sie die Konten, die den freigegebenen Inhalts “in den meisten Fällen”, so Davis.

Facebook ‘ s neue Entdeckung tech arbeiten im tandem mit dem pilot-Programm im vergangenen Jahr angekündigt, mit der Benutzer präventiv Einreichen intime Fotos an die Firma, die Sie nicht wollen, zu sein geteilt auf Facebook, Instagram oder Messenger. Die Bilder werden überprüft, indem ein team von fünf Facebook-Mitarbeiter, Hash -, und dann alle Bilder passend zu den hashes gehindert werden, die hochgeladen wird, um die Dienstleistungen.

Neben der Festigung der Bemühungen Gestrüpp auf der Website von Rache porno, Facebook startet auch eine “support-hub” für die Opfer aufgerufen, Nicht Ohne Meine Zustimmung, wobei “Opfer finden können Organisationen und Ressourcen, um Sie zu unterstützen, einschließlich der Schritte, die Sie ergreifen können, um Entfernung der Inhalte von unserer Plattform und verhindern, dass es gemeinsame weiter — und Sie können auf unsere pilot-Programm”, Davis schreibt.

Was bleibt, unklar ist, wie Facebook die neuen AI-tool wird in der Lage sein, zu erkennen, ob die intimen Fotos flags hochgeladen wurden, ohne dass jemand die Zustimmung. Zwar ist es manchmal legitim-tech-Unternehmen zu halten, das komplizierte Innenleben der anti-Mobbing-Werkzeuge unter Verschluss, so dass schlechte Schauspieler können nicht missbrauchen oder Sie ausnutzen, in diesem Fall, müssen wir verstehen, mehr über diese neue Technologie. Facebook nicht zur Veröffentlichung eines detaillierten bauplan von seiner Erkennungs-tech, aber es sollte in der Lage sein, uns zu sagen, wie es ist in der Lage, um zu bestimmen, die Absicht hinter einem user teilen ein intimes Foto. Dies ist ein Werkzeug, das helfen soll, einige Facebook am meisten gefährdeten Benutzer, und verlassen Sie in der Dunkelheit über entscheidende Funktionalität, die Herausforderungen, die der glaube in das system.

Facebook die anfänglichen Bemühungen zur Bekämpfung der Rache porno, machte es von Natur aus klar, dass ein Foto, das jemand versucht, der upload ist freigegeben nonconsensually, gegeben, dass die Möchtegern-Opfer präventiv shared das Bild, um sicherzustellen, dass Sie nicht online veröffentlicht werden. Das ist nicht der Fall mit Facebook neue-detection-Technologie—diese Fotos sind markiert, nachdem Sie schon hochgeladen, und es ist unklar, ob Sie sind diejenigen, die gemeldet wurden, auf Facebook. Wie diese Erkennung-Technologie in der Lage sein zu erkennen, eine Dessous-Foto, das jemand hochlädt, selbstbewusst, von sich selbst im Vergleich zu einem Foto von einer Frau in Dessous, die getragen wurde privat von einem ehemaligen partner, der jetzt vindictively buchen Sie über seine social-media-Seiten? Oder, wie wird diese neue Entdeckung tech in der Lage sein, zu unterscheiden Rache-porno von nackt-Kunstwerk oder eine historisch bedeutende Foto?

Moderation von großen Plattformen wie Facebook schwierig ist Geschäft, und die Bemühungen des Unternehmens, um bessere Polizei-Rache-porno-und die Opfer zu schützen ist gut und notwendig, aber es braucht, um sicherzustellen, dass die Transparenz bleibt an der Spitze.

Wir haben erreicht Facebook zum kommentieren, wie seine neue detection-Technologie wird in der Lage sein zu erkennen, ob ein intimes Foto freigegeben wurde, ohne dass jemand die Zustimmung, und wird aktualisiert, wenn Sie reagieren.

Update 1:30pm ET: Facebook sagte Gizmodo in einer E-Mail, dass Ihre detection-Technologie ausgebildet wurde, der auf Rache-Pornos, um besser zu verstehen, was diese Art von posts Aussehen würde, und so ist es in der Lage, zu erkennen, ob für eine intime oder nackt-Bilder oder Videos, die geteilt wird, ohne dass jemand die Zustimmung. Sie haben jedoch keine weitere details, wie es funktionieren würde. AI, da steht, hat noch zu beweisen, dass Sie es verstehen können, auch grundlegende menschliche Nuancen, aber Facebook scheint sicher, dass Sie verstehen, ob ein post ist rachsüchtig.

Teilen Sie Diese Geschichte


Date:

by