Facebook Will die Nutzung des maschinellen Lernens zu Stoppen, Hoaxes und Fake-News

Foto: AP

Facebook wurde eine Reihe von neuen Anstrengungen, Donnerstag, im Kampf gegen gefälschte Nachrichten.

In einem Blogeintrag von Produktmanager Tessa Lyons, Facebook kündigte eine Reihe von neuen Partnerschaften und Erweiterungen zu seiner fact-checking-Bemühungen, einschließlich der Tatsache-überprüfung virale Fotos und Bilder und die Verwendung von machine learning stoppen die Verbreitung von hoaxes und fake-news.

Die neuen features bekannt gegeben werden, nach Lyons’ blog-post:

  1. Erweitern unser fact-checking-Programm für neue Länder
  2. Der ausbau unserer test-fact-check Fotos und videos
  3. Erhöhung der Wirkung von fact-checking durch die Verwendung neuer Techniken, einschließlich der Identifizierung von Duplikaten und mit Anspruch Abgeben
  4. Das Vorgehen gegen die neuen Arten von Wiederholungstätern
  5. Die Verbesserung der Messung und Transparenz durch die Partnerschaft mit der Wissenschaft

Lyons erklärt, dass die algorithmen erkennen und Kennzeichnen Seiten mit verdächtigen oder sonst anstößige Verhalten—Plagiierte text, schattigen anzeigen auf Nutzer in anderen Ländern, und mehr. Sobald eine virale news-Geschichte ist entlarvt, Facebook verwenden maschinelles lernen Kennzeichnen, die Duplikate der Geschichte—posting eine Geschichte von mehreren Standorten ist eine gängige Praxis bei falschen Informationen Hausierer—identifizieren, die es in unterschiedlichen Domänen und news-Seiten.

“Mit machine-learning sind wir in der Lage zu erkennen und herabzustufen Duplikate von Artikeln, die bewertet wurden “false” durch “fact-checkers”, sagte Lyons zu BuzzFeed. “Diese Seiten oft kopieren und einfügen von Inhalten [aus anderen Quellen], und ein weiteres signal ist, dass die website selbst sind bedeckt in niedriger Qualität anzeigen. Wir sehen auch ein gemeinsames Muster in die Seite admins-die in einem Land ansässig sind, die sich an Menschen in anderen Ländern. Diese admins haben oft verdächtige Konten, die sind nicht fake, sondern identifiziert werden, die in unserem system als verdächtige Aktivitäten.”

Interessant ist, gekennzeichnet werden, für hoaxes nicht zwangsläufig zu einem Verbot führen. Facebook sagt, dass es plant, zu warnen und demonetize Seiten, die gegen die Regeln verstoßen, aber dann wieder diese Seiten, wenn Sie “stop sharing” – hoaxes.

“Es ist die Fähigkeit zu rehabilitieren [Ihre Seite],” Lyon sagte.

Facebook und anderen großen content-Plattformen wie YouTube haben schon lange schwebte die Idee der Verwendung von AI oder machine-learning-Techniken, um Inhalte moderieren, entweder bei der Aufdeckung von Terrorismus, Kinderpornos, gefälschte Nachrichten oder Hass. In alle, aber die meisten extremen, expletive-laden Beispiele, die Technologie ist einfach nicht bis zu par für die enorme Menge der eingestellten Inhalte auf der Plattform, und bezieht sich noch auf die übergabe, die viel macht über die automation—was passiert, wenn jemand irrtümlich gekennzeichnet?

Diese Art Fehler sind schon passiert, als Teil des sozialen Netzwerks Anstrengungen zur Bereinigung der eigenen Plattform. Diese Woche, Facebook abgelehnt, eine Anzeige für eine news-story auf Kind Haftzentren für seine “politische” Inhalte, mit der Aufforderung dem Spiel vertraut Vorwürfe der Befangenheit. Mit der midterm-Wahlen nähert sich, Facebook kann noch mehr erwarten Kontrolle aller seiner moderation Bemühungen, automatisierte oder nicht.

[Buzzfeed]


Date:

by