Fremtiden falske nyheter: ikke tro på alt du leser, ser eller hører

En ny rase av video og manipulasjon av lyd-verktøy kan for etablering av realistiske nyheter opptakene, som den nå så beryktede falske Obama tale

@oliviasolon

e-post

Onsdag 26. juli 2017 06.00 BST

Sist endret onsdag 26. juli 2017 06.46 norsk tid

I en alder av Photoshop, filtre og sosiale medier, og mange av oss er vant til å se manipulerte bilder – fag bli slankere og fastere eller, i tilfelle av Snapchat, forvandlet til valper.

Men, det er en ny rase av video og lyd manipulasjon verktøy, gjort mulig av fremskritt i kunstig intelligens og datagrafikk, som vil tillate for etablering av realistiske opptak av offentlige personer som vises vil si, vel, noe. Trump å erklære sin proclivity for vannsport. Hillary Clinton, som beskriver den stjålne barn hun holder låst i hennes vinkjeller. Tom Cruise endelig innrømme det vi mistenkte alle sammen … at han er en Brony.

Dette er fremtiden for falske nyheter. Vi har lenge blitt fortalt at de ikke skal tro alt vi leser, men snart må vi stiller spørsmål ved alt vi ser og hører så godt.

For nå er det flere forskningsmiljøer jobber med å fange og å syntetisere ulike visuelle og audio elementer av menneskelig atferd.

Programvare som er utviklet ved Stanford University er i stand til å manipulere video-opptakene av offentlige personer for å tillate en annen person til å sette ord i sin munn, i sanntid. Face2Face fanger den andre persons ansiktsuttrykk når de snakker inn i et webkamera og deretter morphs de bevegelser direkte på ansiktet til personen i den opprinnelige videoen. Forskningsgruppen vist sin teknologi ved puppeteering videoer av George W Bush, Vladimir Putin og Donald Trump.

Facebook

Twitter

Pinterest

Face2Face kan du nå kjendiser og politikere, bokstavelig talt å legge ord i munnen.

På sin egen, Face2Face er en morsom var for å skape idéer og underholdende late night talkshow-verter. Imidlertid, med tillegg av en stemme, det blir mer overbevisende – ikke bare den digitale marionett ser ut som politiker, men det kan også høres ut som politiker.

Et forskerteam ved University of Alabama i Birmingham har jobbet på røst falsk identitet. Med 3-5 minutter av lyd av et offer ‘ s voice – tatt live eller fra YouTube-videoer eller radio show – en angriper kan opprette en stemme som kan lure både mennesker og stemme biometrisk sikkerhet systemer brukes av noen banker og smarttelefoner. Angriperen kan deretter snakke inn i mikrofonen, og programvaren vil konvertere det slik at ord kan høres ut som de blir fortalt av offeret – enten det er via telefonen eller en radio show.

Kanadiske oppstart Lyrebird har utviklet lignende evner, som det står kan brukes til å gjøre tekst om til on-the-spot lydbøker “lese” av kjente stemmer eller for karakterer i spill.

Selv om deres intensjoner kan være velmenende, stemme morphing teknologi kan kombineres med ansikt-morphing teknologi for å skape overbevisende falske uttalelser fra offentlige personer.

Du trenger bare å se på University of Washington er å Syntetisere Obama-prosjektet, hvor de tok lyd fra en av obamas taler og brukt det til å animere ansiktet hans i en helt annen video med utrolig nøyaktighet (takk til trening en tilbakevendende nevrale nettverk med timer-opptak), for å få en følelse av hvordan snikende disse adulterations kan være.

Facebook

Twitter

Pinterest

Syntetisere Obama viser hvor vanskelig det er å oppdage video manipulasjoner.

Utover falske nyheter det er mange andre implikasjoner, sa Nitesh Saxena, professor og forskningsdirektør ved University of Alabama i Birmingham institutt for informatikk. “Du kunne forlate falske talemeldinger utgir seg for å være noens mor. Eller sverte noen, og legge lyd prøvene på nettet.”

Disse morphing teknologi er ikke perfekt ennå. Ansiktsuttrykkene i videoene kan virke litt forvrengt eller unaturlig og stemmer kan høres litt robot.

Men gitt tid, vil de være i stand til å gjenskape lyden av eller utseendet til en person – til det punktet hvor det kan være veldig vanskelig for mennesker å oppdage svindel.

Gitt erosjon av tillit i media og frodig spredning av svindel via sosiale medier, vil det bli enda viktigere for nyheter organisasjoner for å granske innhold som ser og høres ut som the real deal.

Telltale tegn vil være der video eller lyd ble opprettet, hvem andre som var på arrangementet og om været forhold kamp registreringer av den dagen.

Folk bør også være å se på lys og skygger i videoen, om alle elementer omtalt i rammen er riktig størrelse, og om lyden synkroniseres perfekt, sa Mandy Jenkins, fra sosial nyheter selskapet Storyful, som spesialiserer seg i å verifisere nyheter innhold.

Pyntes innhold kan ikke passere gransking av en streng redaksjon, men hvis det blir publisert som en kornete video til sosiale medier det kan spre seg viralt og utløse en public relations, politiske eller diplomatiske katastrofer. Tenk deg Trump erklære krig mot Nord-Korea, for eksempel.

“Hvis noen ser ut som Trump og snakker som Trump de tror det er Trump,” sa Saxena.

“Vi allerede ser det ikke selv ta pyntes, lyd eller video for å få folk til å tro noe som ikke er sant,” lagt Jenkins. “Dette har potensial til å gjøre det verre.”


Date:

by