Wie ein schrecklicher Mord, Macht den Großen Ausfall von Facebook ist AI Moderation

Künstliche Intelligenz

Wie ein schrecklicher Mord, Macht den Großen Ausfall von Facebook ist AI Moderation

Foto: Elise Amendola (AP) Brian MerchantToday 1:30pmFiled zu: AutomatonFiled zu: Automaton11Save

  • Bearbeiten
  • Embiggen
  • Senden Sie an die Redaktion
  • Fördern
  • Teilen auf Kinja
  • Verschieben von ad-slots
  • -Änderung im Artikel video

Wenn der 21-jährige Brandon Andrew Clark geschrieben eine Reihe von Grafik-images am Sonntag der getöteten Leiche der 17-jährige Bianca Devins auf Instagram und Zwietracht, die Nutzer sofort begann die Verbreitung der blutigen Bildern online, oft neben brutalen, menschenverachtenden Kommentar. Einige sagten, das Opfer, ein “e-Mädchen”, die so populär war auf 4Chan, hat es verdient, und andere genannt, die für noch mehr Gewalt gegen Frauen. Clark, der zu haben scheint, live-gepostet den Mord selbst auf Instagram—eine Serie von Beiträgen berichten zufolge die Körper zeigte, die Straße in der Nähe der Tatort, und ein Akt der blutigen self-harm—nahm sich die Zeit zu ändern, seine bio zu Hinweis auf seinen bevorstehenden Selbstmord versuchen, und zu versuchen, das Handwerk eine multi-Plattform-Erzählung rund um die Tötung als es entfaltet.

Polizei am Montag geladen Clark mit Devins’ Mord.

Wie die zutiefst sozial vermittelte Christchurch, Neuseeland, Dreharbeiten im März, die Handlung zeigt sowohl die mutmaßlichen killer ist für versierte web-Plattform Mechaniker und wie schnell extreme Inhalte verbreitet. Es zeigt auch, wie wenig hat sich geändert, seit diese Handlungen von real-time-Gewalt gewachsen, die Prominente, und, noch einmal, wie schlecht die Plattformen sind nicht zu halten Inhalte wie diese aus Ihren betrieben: Die Instagram-post von Devins’ Körper war Links auf einer Plattform, die gemeinsam von 1 Milliarde monatlich aktive Nutzer, für das, was angeblich die meisten am Sonntag. An einem Punkt, Instagram platziert das Bild hinter einem filter-Bildschirm, der lediglich davor gewarnt, Grafik-Inhalt, bevor Sie schließlich das entfernen der post und der Rechnung zusammen.

Tech-Führungskräfte haben lange gesagt, Sie sind die Bereitstellung von schneiden-edge KI und automatisierten content moderation systems, um dies zu halten. Es ist schon fast ein Jahr und eine Hälfte, seit Mark Zuckerberg, CEO von Facebook, besitzt, Instagram, sagte fortgeschrittene AI-tools würde bald vorkommen, wie dies der Vergangenheit an. “Langfristig, Gebäude AI-tools wird die skalierbare Art und Weise zu identifizieren und auszumerzen, die meisten dieser schädlichen Inhalten” Zuckerberg sagte in einer Kongress-Anhörung im April 2018. “Die Kombination von Bau-KI und die Einstellung was Los ist, um Zehntausende von Menschen zu arbeiten, die auf diese Probleme, ich denke, wir sehen uns sehr bedeutungsvoller Fortschritt vorwärts gehen”, sagte er auf ein Ergebnis aufrufen des gleichen Monats. “Das sind keine unlösbaren Probleme.”

“Facebook/Instagram wurden besonders schlecht über die Bereitstellung von deep learning zur Bekämpfung von gewalttätigen Bildern. Es ist unklar, warum.”

Und doch, hier sind wir im Juli 2019 und Instagram-Nutzer ausgesetzt grafische Inhalte sind gezwungen zu nehmen Angelegenheiten in Ihre eigenen Hände und versuchte zu übertönen, eine Flut von abstoßenden und opportunistische Mord porn Beiträge von co-opting dem hashtag und mass-posting Fotos von harmlosen rosa Wolken. Es war noch nicht genug, um stymie die Ausbreitung von incel-Verherrlichung Mord pics.

Inhalt moderation ist ein zutiefst Komplex und unfassbar schwieriges Unterfangen auf Plattformen mit Milliarden von Nutzern. Aber nicht alle moderation Aufgaben sind gleich. AI, zum Beispiel, ist viel besser zu Kennzeichnen Instanzen von Nacktheit und gore, als es bei Abholung Hass. Facebook sagte, wie viel, Wann, unter Feuer für die Zulassung der Verbreitung von Desinformation, es erklärt auf seiner F8-Konferenz im letzten Jahr, wie seine AI-tools helfen würde es zu kämpfen extreme Inhalte.

“Die Quintessenz ist, dass automatisierte AI-tools helfen, vor allem in sieben Bereichen: Nacktheit, grafische Gewalt, terroristische Inhalte, Hassreden, spam, fake-accounts und Suizidprävention,” CNET berichtet die Zeit. “Für Dinge wie Nacktheit und grafische Gewalt, problematische Beiträge erkannt werden, die durch eine Technologie namens ‘computer vision’ – software, die ausgebildet, um zu Kennzeichnen Sie die Inhalte, weil bestimmte Elemente im Bild. Manchmal, dass grafische Inhalte ist abgebaut, und manchmal ist es hinter ein Bildschirm mit einer Warnung.”

Die Frage ist also, warum ein Jahr nach Zuckerberg angepriesen AI moderation tech, hat Instagram, und Ihre Muttergesellschaft Facebook, berichten zufolge nehmen die meisten von einem Tag zu entfernen, die Devins post? Ein posten, der hat terrorisiert, traumatisiert, und wütend, dass die Familie des Opfers? Ein post könnte nicht mehr offensichtlich gegen Facebook und Instagram community-Richtlinien? Auf Facebook, ist die Tatsache, dass die stellen der Darstellung von Gewalt und Aufstachelung’ gebannt wird, ist das Thema des ersten Teil des ersten Abschnitts der entsprechenden Leitlinien—ein langer, 22-Punkt-Dokument. Instagram ist die community-Richtlinien ähnlich Staates, das “Teilen-Grafik zum sadistischen Vergnügen oder verherrlichen Gewalt ist nie erlaubt.”

Warum nicht war, Zuck ist Häufig diskutierte Automatisierung-led-system, bis zu der Aufgabe, Kennzeichnen diese sehr offensichtlich, Grafik, obszön und hasserfüllt nach, bevor es erreicht Benutzer-Bildschirm? Warum automatisierte content moderation systems, die schon seit Jahren angekündigt worden, die die Plattformen als chief Waffe in unserem arsenal gegen die offensive, extreme Inhalte, auch weiterhin Versagen Ihren Zuständigkeitsbereich?

“Wenn es um die gemeinsame Nutzung gewalttätige Bilder oder gore, die meisten der großen Plattformen haben bereits Regeln für das Verbot dieser Art der Inhalte, so, ja, das Problem ist nicht unbedingt “mit Politik”, aber wie diese Politik umgesetzt wird”, sagt Robyn Caplan, ein affiliate-Forscher an der Daten & Society Research Institute, die Studien-Plattformen und content moderation. “Die großen Plattformen sind zunehmend mit Automatisierung für videos und Fotos. Sie benutzen hashing, um einen eindeutigen Bezeichner für die beanstandeten Fotos, die dann im Vergleich gegen andere identische Fotos, die hochgeladen wurden.”

Dies ist ein Grund, warum es einige Erfolg im Einklang extreme Inhalte wie ISIS-verwandten pro-Beiträge Terrorismus und Kinderpornographie abseits der großen Plattformen—der tech-Firmen betreiben eine gemeinsame Datenbank der gekennzeichneten terroristischen Inhalten, und kann in vielen Fällen tag und entfernen Sie hasserfüllte Inhalte, bevor jemand Sie sieht. (Obwohl Nonprofit-Organisationen, wie die Bekämpfung von Extremismus-Projekt sagen, dass es nicht so viele Fälle, wie Sie möchten, Sie zu denken.) Aber es gibt auch die Montage Liste der vermeintlich offensichtlichen Fehler: Die Terror-videos Theresa May excoriated Facebook für die in der Zeit nach 2017 London Bridge Angriff. Die Christchurch videos, die erlaubt, auf Facebook 20 Prozent der Zeit—für Hunderte von Tausende von Beiträgen—wenn Benutzer freigegebene Sie auf die Plattform, so das Unternehmen. Und jetzt haben wir die Bianca Devins Beiträge, die immer wieder von Benutzern gemeldet, und blieb aber noch live auf der Plattform, für Stunden.

Facebook ist angeblich, dass der Betrieb eines fortgeschrittenen computer-vision-system, das auto-Fahnen beleidigende Beiträge von graphischer Gewalt, und eine Datenbank, wo beleidigende Bilder erhalten hashes und kann abgenommen werden automatisch beim Upload. Offen grundlosen, grausamen post darstellend, tödliche Gewalt gegen ein teenager, geschrieben von einem Mann unterstellt, dass er es war, der Sie tötete, sollte ein Platz unter die einfachste Art des Inhalts Kennzeichnen, die durch einen Algorithmus trainiert zu tun. Und doch sind diese Beiträge beibehalten werden können. Warum?

Es könnte sein, dass die Technik Facebook ist einfach nicht gut genug.

“Die tech -, die wir bereits haben tun können, einen wesentlich besseren job, aber es gibt einfach keinen Anreiz für Unternehmen bereitstellen, die es für Inhalt, moderation,” Kalev Leetaru sagt mir in einer E-Mail Konversation. Leetaru ist Senior Fellow an der Auburn University und läuft GDELT, eine “Globale open-monitoring-Projekt” mit Unterstützung von Google Jigsaw.

“Während die heutigen tief-Bild-Klassifizierung-algorithmen sind bei weitem nicht perfekt und kann nicht fangen alles, Sie sind ziemlich gut Kennzeichnen eine Breite Schneise der gemeinsamen gewalttätigen Bilder in all Ihren Formen, einschließlich der Bilder Darstellung von Waffen verwendet wird oder sichtbar Blut oder Personen ausstellen extreme visual Qual”, sagt er. “Die Technologie ist da, um zu fangen einen großen Teil der gewalttätigen Bilder, die größer werden. Der Grund Plattformen nur ungern bereitstellen, kommt es auf mehrere Faktoren.”

Diese Faktoren, argumentiert er, ist der Kontext, Kosten und Gewinn.

Zusammenhang ist klar genug—wie in dem berüchtigten Fall der “Terror des Krieges” – Foto, das zeigt eine Nackte und napalm-Vernarbten Mädchen in der Qual, und die Facebook fälschlicherweise zensiert reichlich Kritik, die autonomen Modelle Kennzeichnen kann einen Beitrag als beleidigend und die Moderatoren werden immer noch haben, zu entwirren, ob Sie Taten so richtig. AI ist kein Allheilmittel für menschliche Urteil.

Dann gibt es die Kosten für den Betrieb einer ausreichend fortgeschrittenen system. “Qualitativ hochwertige Modelle, die ausgebildet worden sind, auf diversen Bildern sind sehr teuer”, sagt er, und “im Gegensatz zu Urheberrechtsverletzungen, in denen die Plattformen sind rechtlich gezwungen zu verbringen, was Sie brauchen, um zu fangen illegalen uploads, gibt es keine gesetzlichen Anforderungen in den meisten Ländern zur Bekämpfung von gewalttätigen Bildern, so gibt es keinen Anreiz für Sie, dies zu tun.” Schließlich Leetaru notes Gewinn-Motiv. Extreme Beiträge generieren viele Klicks, shares und Kommentare, und im Gegensatz zu den gesunden Menschenverstand, vielleicht, “[t]errorism, Hass, Menschenhandel, sexuelle übergriffe und andere schreckliche Bilder tatsächlich Vorteile der Standorte monetär”, sagt er.

Und schließlich, in einer kommerziellen Plattform, die priorisiert, Wachstum über alles, alle Diskretion über den Inhalt letztlich aufgelöst wird, bevor Fragen der Rentabilität.

“Während die Bedeutung und die Absicht des user-generated content kann oft vorgestellt werden die wichtigsten Faktoren, durch die die Inhalte bewertet, für eine Website,” Sarah T. Roberts, assistant professor im Department of Information Studies an der University of California, Los Angeles, schrieb in einem jüngsten Papier”, dessen Wert um die Plattform als ein potenziell Umsatz generierendes Ware ist eigentlich das entscheidende Kriterium und das, was alle moderation Entscheidungen sind letztlich reduziert.” Dies ist auch ein Grund dafür, dass Plattformen moderation algorithmen aggressiver Gegner posten in Verbindung mit der ISIS-Terrorismus, als Sie tun, sagen, weißen Nationalismus—wenn Arabisch-Lautsprecher, die nicht gegen irgendwelche Regeln bekommen swept up in the dragnet, das ist weniger ein Risiko für Ihre bottom line, als wenn high-Profil, die konservativen tun.

Wenn es ist teuer und ressourcenintensiv laufen gut, autonomous content moderation systems, und damit berauben Facebook und Instagram von engagement, dann ist es nicht schwer zu sehen, warum die Plattformen würden weiter ziehen Ihre Füße in den ausbau der Technologie-und Telefonzentrale Politik. Nachdem alle, trotz mehr als einem Jahr gerade der fast nonstop Skandal und public policy, Fehler, Facebook Aktie weiter zu klettern. (“Facebook … wurde verwickelt in Datenschutz-Skandale, die Russischen Wahlen Störungen Spielraum und mehr für gut über einem Jahr nun,” Yahoo! Finance notiert im Mai, die Bewertung der Aktie als “buy”. “Trotz all der Negativität, es scheint, dass der Durchschnittliche Facebook-Benutzer nicht zu kümmern scheinen.”)

Nach Zuckerberg ‘ s x-TEN mea culpa publicity-tour, könnten wir vielleicht verziehen werden für das denken, dass Facebook hat die Staatsbürgerliche Pflicht im Sinn, als er fummelt durch die Entschuldigung nach Entschuldigung—aber lax, letztlich giftig moderation Politik erweisen sich als besonders schädlich für die Unternehmens-bottom-line. Und das wiederum ist das, was zählt, um diese Plattformen am Ende des Tages.

Wenn ich per E-Mail Instagram über warum—trotz Ihrer automatisierten content moderation Systems—es dauerte so lange zu entfernen, die beleidigenden post by Clark, wer ging durch @yesjuliet auf der Plattform, die Firma schickte mir diese Aussage, auf den Facebook-Sprecher: “Unsere Gedanken gehen an die betroffenen, die von diesem tragischen Ereignis. Wir nehmen alle Maßnahmen, um diese zu entfernen die Inhalte unserer Plattformen.”

Instagram schickte mir auch eine Gliederung der anderen Punkte in Bezug auf den Fall, in dem der Sprecher sagte, war die hintergrund—eine Bedingung, auf die ich nicht im Voraus vereinbaren. Die details sind es Wert ungefiltert, als Sie verdeutlichen, was die Gesellschaft bedeutet, durch “unter jeder Maßnahme” und wie es charakterisiert seine Verwendung von seiner vielgepriesenen KI-moderation-Technologie in einem real-world-Szenario:

-Wie bei anderen wichtigen Nachrichten, wir sehen den Inhalt unserer Website im Zusammenhang mit diesem tragischen Ereignis und wir entfernen Inhalte, die gegen unsere Richtlinien verstoßen, wie die Unterstützung für das Verbrechen.

-Einmal dieses tragische Ereignis war aufgetaucht, um uns auf Sonntag – wurden die Inhalte in Frage, von @yesjuliet s Instagram Geschichten, und unsere teams in der ganzen Firma begann die überwachung für weitere Informationen und Entwicklungen in der realen Zeit, die situation zu verstehen und was könnte manifestieren, auf Instagram.

-Während wir nicht in der Lage bist zu teilen, die Zeit, die zum entfernen der post, dauerte es keine 24 Stunden. Dies ist ungenau.

-Unsere Politik-und operations-teams, sowie unsere teams, die Kommunikation mit den Strafverfolgungsbehörden, begann die Koordination, um sicherzustellen, dass wir hatten so viel information wie möglich über das Ereignis, so dass wir feststellen konnten, ob Inhalte auf unserer Website gegen unsere Richtlinien.

-Dann am Montag, wenn die Tat und den verdächtigen, der die Identität bestätigt wurde, haben wir sofort entfernt, seine Konten auf beiden, Instagram und Facebook.

-Außerdem werden unsere teams wusste auch zu erwarten, dass, sobald der verdächtige wurde benannt, dass die Menschen möglicherweise versuchen, das erstellen von Konten die Identität ihn, so dass Sie sofort beginnen, proaktiv zu suchen und diese zu entfernen. Sie habe mit einer Kombination aus Technologie, sowie Berichte aus unserer Gemeinde, nehmen diese Konten nach unten.

-Sie sind auch die Beurteilung von hashtags und accounts zu fordern, zu teilen diese Inhalte und Maßnahmen im Einklang mit unserer Politik, zum Beispiel, wir blockierten den hashtag #yesjuliet, #yesjulietpicture,#checkyesjuliet ,#yesjulietvideo versucht zu verbreiten, das Bild.

-Endlich – zu stoppen, die Inhalte verbreiten, sind wir mit der Technologie, die uns erlaubt, proaktiv zu finden, andere versuche zum hochladen des Bildes in Frage, und automatisch entfernen Sie Sie, bevor jemand Sie sieht. Wir haben auch diese Maßnahme, in der Platz für Bilder gemeinsam auf anderen Seiten, um sicherzustellen, dass diese Bilder nicht auch gepostet auf Instagram.

Wir sind derzeit in Kontakt mit den Strafverfolgungsbehörden.

Da das nicht die Frage beantworten, warum das automatisierte system nicht erkennen und entfernen eine Bild offensichtlich in Verletzung seiner Politik für viele Stunden—wenn es nicht ein ganzer Tag, Berichte sagen, es war in der Nähe—ich folgte. Die Instagram-Sprecher bestätigte die Plattform keine “künstlichen Intelligenz im Ort zu finden, unzulässige Inhalte wie diese,” aber Sie wollte nicht erklären, die Verzögerung.

“Unser Ziel ist es, Maßnahmen zu ergreifen, so bald wie möglich,” die Sprecherin sagte, “es gibt immer Raum für Verbesserung. Wir wollen nicht, dass Menschen sehen, Inhalte, die gegen unsere Richtlinien verstoßen.”

Vielleicht die meisten ärgerlich Möglichkeit ist, dass, wenn Leetaru und andere Kritiker haben Recht, Facebook und Instagram sind einfach zu verzögern oder fehlerhafte Nutzung der Technologie, die Sie bezahlt haben, so viel lip service, denn it-Risiken behindern die rasche Verbreitung von Inhalten.

“Facebook/Instagram wurden besonders schlecht über die Bereitstellung von deep learning zur Bekämpfung von gewalttätigen Bildern,” Leetaru erklärt. Trotz “top-notch” KI-Forschung Mitarbeiter, Sie weiterhin hinter Ihren Kollegen. “Es ist unklar, warum.” Er stellt fest, dass Facebook sagt, dass Sie diese nicht besser mit der neuseeländischen shooting-video, weil Sie nicht genug training Beispiele. “Aber in Wirklichkeit würde man nie versuchen zu bauen ein all-in-one-Klassifikator für diese Art von videos, weil es einfach nicht genug videos zu generieren solide Ausbildung legt.” Stattdessen, sagt er, würde man Modelle bauen suchen für Instanzen von Blut, Waffen, und so weiter, zu einem composite—eine ziemlich offensichtliche Unterscheidung, in seinen Augen.

Dies war ein wiederkehrendes Beschwerde bei Facebook, in der Tat, dass es nicht gelungen ist, Interesse zu zeigen, in der Annahme besser auto-Moderation-Technologie. Nach der London Bridge Angriffe vor zwei Jahren, Dr. Hany Farid, der Vorsitzende der Abteilung für informatik an der Dartmouth und einer der Köpfe hinter PhotoDNA, die hilft, Plattformen ID und das Verbot von Kinderpornographie, sagte Über die Medien, er hatte versucht zu helfen, Facebook verbessern Ihre Fähigkeit zur Aufdeckung terroristischer Aktivitäten. Er sagte, bot er Ihnen Zugang zu seinem eGLYPH-system—und wurde abgewiesen.

“Ich muss sagen, es ist wirklich frustrierend, denn jedes mal, wenn wir sehen schreckliche Dinge, die auf Facebook oder auf YouTube, oder auf Twitter, erhalten wir die standard-Pressemitteilung, die von den Firmen sagen: “Wir nehmen online-Sicherheit sehr ernst. Es gibt keinen Raum in unseren Netzwerken, die für diese Art von material”,” Farid sagte, laut CNBC. “Und doch sind die Unternehmen ziehen Ihre Füße. Sie weiterhin zu ignorieren Technologie, die verwendet werden könnten, und hat keinen Einfluss auf deren Geschäftsmodell in irgendeiner signifikanten Art und Weise.”

Robyn Caplan von Daten & Gesellschaft ist auch mit einem Verlust für das, warum, zumindest in dem Fall des Devins Mord Fotos, die autonomen Systeme gescheitert. “Dies ist die gleiche Technologie, die Sie verwenden für das Urheberrecht und die Terroristen-Datenbank, die ich denke, ist, warum die Leute so verwirrt, warum funktioniert es nicht mehr effektiv hier,” erzählt Sie mir. Sie fügt hinzu, dass der Kontext die Anliegen von Christchurch—wo Facebook zog sich auf schwerer moderation, weil Sie nicht wollen, zu verbieten, die Nachrichten-clips, die bearbeitet wurden in einigen pro-Terrorismus-posts—nicht wirklich vorhanden sein, die Devins Vorfall. “Das könnte ein Fall, wo Brigaden, botnets, motivierte Gruppen von Individuen, die nur das hochladen schneller als Plattformen können damit umgehen,” Caplan sagt mir. “In diesem Sinne, sowohl die Erhöhung teams, der moderation und eine bessere Vermischung der helfen könnte.”

“Die tech -, die wir bereits haben tun können, einen wesentlich besseren job, aber es gibt einfach keinen Anreiz für Unternehmen bereitstellen, die es für Inhalt moderation.”

Die, wieder einmal, kommt es auf eine Frage der Ressourcen. Und Facebook kann einfach sein, desinteressiert oder nicht Willens zu widmen, die notwendigen Ressourcen zur Verbesserung seiner Systeme. Immerhin, es hatte wenig Anreiz, dies zu tun.

“Außer ein paar publikumswirksamen Fällen des Inserenten Gegenreaktion gegen besonders hohe Profil-Fälle”, Leetaru sagt mir, “die Werbetreibenden sind nicht zwingen die Unternehmen besser zu machen, und die Regierungen sind nicht setzen Druck auf Sie, Sie haben also wenig Anreiz, es besser zu machen.”

Das ist natürlich ein problem. Wie wir gesehen, in Christchurch, und jetzt, wieder näher an der Heimat mit dem töten von Devins, wir sehen, wie lange schwelenden Brutkästen des Hasses überschwappen in die Reale Welt. Es verwendet werden, um übertreibung zu sagen, dass die Wände zwischen online-Extremismus und Realität brechen und führt zu Gewalt, sondern nur ein Blick auf die performative Natur der beiden letzten Aufmerksamkeit gehetzt zu wirken. Es passiert jetzt, und es wird wieder passieren.

“Menschen, die sich fließend in die Kultur des online-Extremismus, machen Sie und konsumieren edgy meme, Sie cluster und verhärten. Und einmal in eine Weile, einer von Ihnen bricht,” Kevin Roose schrieb in der New York Times nach Christchurch Schießen. “Wir müssen verstehen, und Adresse den giftigen pipeline von Extremismus, die sich in den letzten Jahren, deren endgültige Auswirkungen sind nicht zu quantifizieren, aber deutlich zu groß, um zu ignorieren. Es ist nicht Weg.” In der Tat, als Meilen-Klee-Punkte-out, Benutzer werden durch Bewegung, die pipeline schneller als je zuvor, verwischt die Grenze zwischen gaming mörderischen Verhalten und Mord.

Die automatisierte moderation Systeme, die möglicherweise nicht mehr Inhalte, verbreitet eine Kultur des Hass—Inhalte plausibel in der Lage Anstiftung Nachahmer Gewalt—nicht nachgekommen sind. Sie scheitern, weil, ja, es ist ein Komplexes und schwieriges problem, und viele Gemeinden auf Facebook und darüber hinaus sind rücksichtslos Absicht auf die Förderung der giftige Inhalt. Aber Sie sind auch zu Versagen, weil tech-Unternehmen sind anscheinend nicht bereit, um Ihr Geld, wo Ihre feeds sind, und zum bereitstellen robuste Systeme in der Lage zu blockieren, die verrotten so schnell wie möglich. Es ist einfach so, leider: Gewinn-und ausbau wurden priorisiert über tools potent genug, um die posts und moderierende-Programm ausreichend zu kontextualisieren, Sie.

Die tragischen posts von Bianca Nevins sollte ein Idealer Anwendungsfall für computer vision und deep learning moderation AI—beunruhigende Bilder mit einem Opfer eines geistesgestörten Mörder sollte ein primäres Ziel für ein Programm in der Lage eine schwächelnde Blut, Wunden und Tod. Wenn die weltweit größte Plattform, die von einem der reichsten Unternehmen auf dem Planeten, kann nicht blocken, die meisten nach außen hin extreme Inhalte, nach Dutzenden verspricht, dass die KI ermöglichen die effektive moderation von der Plattform, CEO, dann ist es versäumt hat, seinen Nutzern und der öffentlichkeit.

Es ist Zeit, zu schauen, Facebook und Instagram den Fehler mit AI-moderation-Systeme in die Augen und Nachfrage-einige legitim, buzzword-freie Antworten, warum.

Die National Suicide Prevention Hotline in den USA erreicht werden können-24 Stunden am Tag an 1-800-273-8255. Zusätzliche Ressourcen für die internationale Selbstmord-hotlines finden Sie hier.

Teilen Sie Diese Geschichte


Date:

by