Facebook Wil Gebruiken om de Machine te Leren om te Stoppen met Grappen en Nep-Nieuws

Foto: AP

Facebook debuteerde een gastheer van nieuwe inspanningen donderdag in de strijd tegen het valse nieuws.

In een blog post van product manager Tessa Lyons, Facebook kondigde een reeks van nieuwe partnerschappen en uitbreidingen op de feiten te controleren inspanningen, met inbegrip van het controleren van feiten virale foto ‘ s en afbeeldingen en het gebruik van machine learning te stoppen met de verspreiding van verzinsels en valse nieuws.

De nieuwe functies aangekondigd zijn, volgens Lyons blog post:

  1. Het uitbreiden van onze fact-checking programma om nieuwe landen
  2. Het uitbreiden van onze test om te fact-check foto ‘s en video’ s
  3. Het verhogen van de impact van het controleren van feiten door het gebruik van nieuwe technieken, met inbegrip van kopieën identificeren en met behulp van Vordering Review
  4. Het nemen van actie tegen de nieuwe vormen van recidivisten
  5. Het verbeteren van de meting en transparantie door de samenwerking met academici

Lyon verklaard dat algoritmes detecteren en vlag pagina ‘ s met verdachte of anderszins onfrisse gedrag—plagiaat tekst, schaduwrijke advertenties, gericht op gebruikers in andere landen, en meer. Zodra een virale nieuwsbericht is ontkracht, Facebook zal gebruik maken van machine learning om de vlag van duplicaten van het verhaal—het plaatsen van een verhaal van meerdere sites is een gangbare praktijk onder valse informatie venters—identificerende over verschillende domeinen en de nieuws-pagina ‘ s.

“Met behulp van machine learning zijn we in staat om te identificeren en te degraderen duplicaten van de artikelen die werden beoordeeld door valse fact-checkers,” Lyons zei op BuzzFeed. “Deze pagina’ s vaak kopieer en plak de inhoud [uit andere bronnen], en een ander signaal is dat de website zelf zijn bedekt met een lage kwaliteit van de advertenties. We zien ook een gemeenschappelijk patroon in die pagina admins gevestigd in een land zijn gericht op mensen in andere landen. Deze beheerders hebben vaak verdachte accounts die zijn niet nep, maar zijn geïdentificeerd in ons systeem hebben verdachte activiteit.”

Interessant is dat wordt gemarkeerd voor een hoax zijn niet noodzakelijkerwijs leiden tot een ban. Facebook zegt dat het van plan is om te waarschuwen en demonetize pagina ‘s die in strijd zijn met de regels, maar dan herstellen van deze pagina’ s als ze stoppen met het delen van hoaxes.

“Er is de mogelijkheid om te rehabiliteren [uw pagina],” Lyon zei.

Facebook en andere belangrijke content platforms als YouTube hebben lange dreef het idee van het gebruik van AI of machine learning technieken tot matige inhoud, zowel in het opsporen van terrorisme, kinderporno, nep nieuws, of aanzetten tot haat. In alle, maar de meest extreme, exple-zichten beladen voorbeelden, de techniek is gewoon niet up-to-par voor de enorme hoeveelheid inhoud die is geüpload naar het platform, en zorgen nog steeds op overhandigen die veel macht over automatisering—wat gebeurt er als iemand ten onrechte gemarkeerd?

Dit soort fouten zijn al gebeurt als onderdeel van het sociale netwerk van de inspanningen om schoon te maken van het platform. Deze week, Facebook afgewezen op een advertentie voor een nieuwsbericht op kind centra voor zijn ‘politieke’ inhoud, het vragen van speling en vertrouwd beschuldigingen van bias. Met de tussentijdse verkiezingen nadert snel, Facebook kunt nog meer verwachten toetsing van de mate inspanningen, geautomatiseerd of niet.

[Buzzfeed]


Date:

by