Facebook Ønsker at gøre Brug af Machine Learning til at Stoppe Svindel og Falske Nyheder

Foto: AP

Facebook debuterede et væld af nye bestræbelser på torsdag i sin kamp mod falske nyheder.

I et blog-indlæg fra product manager Tessa Lyons, Facebook annonceret en række nye partnerskaber og udvidelser til sin fact-kontrol bestræbelser, herunder fact-kontrol viral fotos og billeder, og brug af machine learning til at stoppe spredningen af fup og falske nyheder.

De nye funktioner er det annonceret, er, ifølge Lyons’ blog-indlæg:

  1. At udvide vores fact-kontrol-program til nye lande
  2. At udvide vores test til at fact-tjekke fotos og videoer
  3. Øge virkningen af fact-kontrol ved hjælp af nye teknikker, herunder at identificere dubletter og hjælp Krav Anmeldelse
  4. Indsatsen mod nye former for recidivister
  5. Forbedring af måling og gennemsigtighed, ved at samarbejde med akademikere

Lyon har forklaret, at algoritmer opdage og flag sider med mistænkelige eller på anden måde anstødelige adfærd—plagieret tekst, skyggefulde annoncer, der målretter mod brugere i andre lande, og mere. Når en viral nyhed er debunked, Facebook vil bruge machine learning til flag dubletter af historien—udstationering en historie fra flere steder, er en almindelig praksis blandt falske oplysninger kræmmere—at identificere det på tværs af forskellige domæner og nyheder sider.

“Brug af machine learning vi er i stand til at identificere og nedrykning dubletter af artikler, der blev vurderet falsk af virkeligheden-dam,” Lyons sagde, at BuzzFeed. “Disse sider ofte kopiere og indsætte indhold fra andre kilder, og et andet signal er, at hjemmesiden i sig selv er dækket af lav kvalitet annoncer. Vi ser også en fælles mønster i, at side-admins der er baseret i et land, der er rettet mod folk i andre lande. Disse admins har ofte mistænkelige konti, der er ikke falske, men er identificeret i vores system som skulle mistænkelig aktivitet.”

Interessant nok, bliver markeret for hoaxes ikke nødvendigvis føre til et forbud. Facebook siger, at det planlægger at advare og demonetize sider, der overtræder reglerne, men så genindsætte disse sider, hvis de stop deling af svindelnumre.

“Der er den mulighed at rehabilitere [side],” Lyon sagde.

Facebook og andre større indhold platforme som YouTube har længe luftet tanken om at bruge AI eller machine learning teknikker til moderat indhold, enten i påvisning af terrorisme, børneporno, falske nyheder, eller “hadefuld tale”. I alle, men det mest ekstreme, udråb-laden eksempler, teknologien er simpelthen ikke op til par for den enorme mængde af indhold, som uploades til platformen, og det drejer stadig på at overdrage så meget magt over for automatisering—hvad sker der, hvis en person fejlagtigt markeret?

Disse typer af fejl er allerede sker som en del af det sociale netværk ‘ s bestræbelser på at rydde op i sin platform. I denne uge, Facebook afvist en annonce for en nyhedshistorie om barnet fangelejre for den “politiske” indhold, hvilket fik modreaktion og fortrolig beskyldninger om bias. Med midtvejsvalget, der hurtigt nærmer sig, Facebook kan forvente endnu mere kontrol af alle sine moderation indsats, automatiseret eller ikke.

[Buzzfeed]


Date:

by