Fremtiden for falske nyheder: du må ikke tro alt, hvad du læser, ser eller hører

En ny race af video og lyd manipulation værktøjer giver mulighed for skabelse af realistiske ser nyheder optagelser, ligesom den nu berygtede falske Obama tale

Facebook

Twitter

Pinterest

University of Washington ‘ s
Der syntetiserer Obama projektet tog lyd fra en af Obamas taler og brugte det til at animere hans ansigt i en helt anden video

Teknologi

Fremtiden for falske nyheder: du må ikke tro alt, hvad du læser, ser eller hører

En ny race af video og lyd manipulation værktøjer giver mulighed for skabelse af realistiske ser nyheder optagelser, ligesom den nu berygtede falske Obama tale

@oliviasolon

e-mail

Onsdag den 26 juli 2017 06.00 BST

Sidst opdateret onsdag den 26 juli 2017 22.00 BST

I en alder af Photoshop, filtre og sociale medier, mange af os er vant til at se manipulerede billeder – emner blive slankere og mere smidig eller, i tilfælde af Snapchat, omdannet til hvalpe.

Men der er en ny race af video og lyd manipulation værktøjer, der blev gjort muligt med fremskridt inden for kunstig intelligens og computer grafik, der vil give mulighed for skabelse af realistiske optagelser af offentlige personer, der optræder på at sige, ja, hvad som helst. Trump om sin hang til vandsport. Hillary Clinton, der beskriver de stjålne børn, hun holder låst i sin vinkælder. Tom Cruise endelig at indrømme, hvad vi mistanke alle sammen …, at han er en Brony.

Dette er fremtiden for falske nyheder. Vi har længe fået at vide, ikke at tro alt, hvad vi læser, men vi bliver nødt til at sætte spørgsmålstegn ved alt, vi kan se og høre så godt.

For nu, der er flere forskergrupper arbejder på at indfange og syntetiserer forskellige visuelle og lyd elementer af menneskelig adfærd.

Software, der er udviklet på Stanford University er i stand til at manipulere med video-optagelser af offentlige personer til at tillade en anden person at sætte ord i deres mund – i realtid. Face2Face indfanger den anden persons ansigtsudtryk, som de taler til et webcam, og så morphs disse bevægelser direkte på ansigtet for den person, som i den originale video. Forskerholdet demonstrerede deres teknologi ved puppeteering videoer af George W Bush, Vladimir Putin, og Donald Trump.

Facebook

Twitter

Pinterest

Face2Face kan du dukkefører berømtheder og politikere, bogstaveligt talt at sætte ord i deres mund.

På sin egen, Face2Face er et sjovt legetøj for at skabe memer og underholdende late night talk show værter. Men med tilføjelse af en syntetisk stemme, bliver det mere overbevisende – ikke kun i den digitale puppet se ud som politiker, men det kan også lyde som politiker.

En forskergruppe ved University of Alabama i Birmingham, har arbejdet på at stemme efterligning. Med 3-5 minutters lyd af et offer stemme – taget live eller fra YouTube-videoer eller radio shows – en hacker kan oprette en syntetisk stemme, der kan narre både mennesker og stemme biometriske sikkerhedssystemer, der anvendes ved nogle banker er og smartphones. Hackeren kan derefter tale i en mikrofon, og softwaren vil konvertere det så, at de ord, der lyder som om de er ved at blive talt med offeret – uanset om det er over telefonen eller på et radio show.

Canadiske start Lyrebird har udviklet lignende kapaciteter, som det siger, kan bruges til at slå tekster til på stedet lydbøger “læse” af berømte stemmer eller til tegn i video spil.

Selv om deres hensigter, kan være velmenende, voice morphing teknologi kan kombineres med ansigts-morphing teknologi til at skabe overbevisende falske erklæringer fra offentlige tal.

Du behøver blot at se på University of Washington ‘ s Syntese Obama projekt, hvor de tog lyd fra en af Obamas taler og brugte det til at animere hans ansigt i en helt anden video med en utrolig nøjagtighed (tak til træning et tilbagevendende neurale netværk med timevis af optagelser), for at få en fornemmelse af, hvordan snigende disse adulterations kan være.

Ud over falske nyheder der er mange andre konsekvenser, sagde Nitesh Saxena, lektor og forskningsleder på University of Alabama i Birmingham ‘ s department of computer science. “Du kunne forlade falske beskeder på telefonsvareren, forklædt som nogens mor. Eller bagtale nogen, og post lyd-prøver på nettet.”

Disse morphing teknologier, der endnu ikke er perfekt. Ansigtsudtryk i de videoer, kan synes en smule forvrænget eller unaturlig og stemmer kan lyde en lille robot.

Men givet tidspunkt, vil de være i stand til præcist at genskabe lyden eller udseende af en person – til det punkt, hvor det kan være meget vanskeligt for mennesker at opdage bedrageriet.

I betragtning af den erosion af tillid i medierne, og den omsiggribende udbredelse af fup via sociale medier, vil det blive endnu vigtigere for nyheder organisationer til at granske indhold, der ser ud og lyder som den ægte vare.

Afslørende tegn vil være, hvor video eller lyd blev skabt, hvem der ellers var til arrangementet, og om vejrforholdene matche registreringer af denne dag.

Folk skal også være på udkig efter lys og skygger i den video, om alle de elementer, der er omtalt i den ramme er den rigtige størrelse, og om audio er synkroniseret perfekt, sagde Mandy Jenkins, sociale nyheder selskab Storyful, som har specialiseret sig i at kontrollere nyheder og indhold.

Sminket indhold kan ikke passere kontrol af en streng newsroom, men hvis det er sendt som en grynet video til sociale medier, det kunne sprede sig viralt og udløse en public relations, politisk eller diplomatisk katastrofe. Forestil dig Trump erklære krig mod Nordkorea, for eksempel.

“Hvis nogen ser ud som Trumf og taler som Trumf, de vil synes det er Trumf,” sagde Saxena.

“Vi kan allerede se, at det ikke engang tage sminket lyd-eller video-til at få folk til at tro noget, der ikke er sand,” tilføjede Jenkins. “Dette har potentiale til at gøre det værre.”


Date:

by