En ny typ av video-och audioformat verktyg för att möjliggöra skapandet av realistiska nyheter bilder, som den numera ökända falska Obamas tal
University of Washington ‘ s
Syntes Obama projektet tog ljud från en av Obamas tal och använde det för att animera hans ansikte i en helt annan video
Teknik
Framtiden för falska nyheter: tro inte på allt du läser, ser eller hör
En ny typ av video-och audioformat verktyg för att möjliggöra skapandet av realistiska nyheter bilder, som den numera ökända falska Obamas tal
@oliviasolon
e-post
Onsdag 26 juli 2017 06.00 BST
Senast ändrad onsdagen den 26 juli 2017 11.46 BST
I en ålder av Photoshop, filter och sociala medier, många av oss är vana att se manipulerade bilder – ämnen blir smalare och smidigare eller, i fall av Snapchat, omvandlas till valpar.
Det finns dock en ny typ av video-och audioformat verktyg, gjort möjligt genom framsteg inom artificiell intelligens och datorgrafik, som kommer att möjliggöra skapandet av realistiska bilder av offentliga personer som syns för att säga något. Trump som förklarade att hans böjelse för vattensporter. Hillary Clinton som beskriver de stulna barnen håller hon låst i sin vinkällare. Tom Cruise att äntligen erkänna vad vi misstänkt hela tiden … att han är en Brony.
Detta är framtiden för falska nyheter. Vi har länge fått höra att inte tro på allt vi läser, men snart kommer vi att ha att ifrågasätta allt vi se och höra så bra.
För nu finns det flera forskargrupper arbetar på att fånga och syntetisera olika visuella och ljud och delar av mänskligt beteende.
Programvara som utvecklats vid Stanford University har möjlighet att manipulera videofilmer av offentliga siffror för att möjliggöra en andra person för att lägga ord i munnen – i realtid. Face2Face fångar den andra personens ansiktsuttryck när de talar till en webbkamera och sedan morfar dessa rörelser direkt på ansiktet på den person som i den ursprungliga videon. Forskargruppen har visat sin teknik genom puppeteering videor av George W Bush, Vladimir Putin och Donald Trump.
Face2Face kan du dockspelare kändisar och politiker, bokstavligen lägger ord i deras munnar.
På sin egen, Face2Face är en rolig leksak för att skapa memer och underhållande late night-talkshow-värdar. Dock med tillägg av en syntetiserad röst, det blir mer övertygande – det är inte bara den digitala puppet ser ut som politiker, men det kan också låta som politiker.
En forskargrupp vid University of Alabama at Birmingham har arbetat på röst-imitation. Med 3-5 minuter ljud av offrets röst – live eller från YouTube-videor eller radioprogram – en angripare kan skapa en syntetiserad röst som kan lura både människor och röst biometriska säkerhetssystem som används av vissa banker och smartphones. Angriparen kan sedan tala in i en mikrofon, och mjukvaran kommer att konvertera den så att orden låter som de talas av offer – oavsett om det är via telefon eller på ett radioprogram.
Kanadensiska start Lyrebird har utvecklat liknande möjligheter, som man säger kan användas för att göra om text till på plats ljudböcker “läsa” av kända röster eller för att karaktärerna i tv-spel.
Även om deras avsikter kan vara välmenande, röst-morphing-teknik kan kombineras med face-morphing-teknik för att skapa övertygande falska uttalanden av offentliga personer.
Du har bara att titta på University of Washington ‘ s Tillverkar Obama-projektet, där de tog in ljudet från en av Obamas tal och använde det för att animera hans ansikte i en helt annan video med otrolig precision (tack till utbildning en återkommande neurala nätverk med timmar film), för att få en känsla av hur lömskt dessa adulterations kan vara.
Bortom falska nyheter det finns många andra konsekvenser, sade Nitesh Saxena, docent och forskningschef vid University of Alabama at Birmingham, institutionen för datavetenskap. “Du kan lämna falska röst-meddelanden som sades vara någons mamma. Eller förtala någon och inlägg ljud prover på nätet.”
Dessa morphing teknik ännu inte är perfekt. Ansiktsuttryck i video kan tyckas lite förvrängd eller onaturlig och röster kan låta som en liten robot.
Men med tanke på tid, de kommer att kunna troget återskapa ljud eller utseende av en person – till den punkt där det kan vara mycket svårt för människan att upptäcka bedrägerier.
Med tanke på den urholkning av att lita på media och skenande spridning av bluffar via sociala medier, det kommer att bli ännu viktigare för nyheter organisationer för att granska innehåll som ser ut och låter som the real deal.
Telltale tecken kommer att vara där video eller ljud skapades, vilka andra som var med vid händelsen och om vädret matcha poster av denna dag.
Människor bör också vara att titta på belysning och skuggor i videon, om alla delar med i ramen är rätt storlek, och om ljudet är perfekt synkroniserade, sa Mandy Jenkins, från sociala nyheter företaget Storyful, som specialiserat sig på att kontrollera nyheter innehåll.
Fiffla innehåll kan inte passera kontroll av en rigorös redaktionen, men om inlagd som en grynig video på sociala medier det kan sprida sig viralt och utlösa en public relations, politisk eller diplomatisk katastrof. Tänk Trump förklara krig mot Nordkorea, till exempel.
“Om någon ser ut som Trumf och talar som Trump de kommer att tycka att det är Trump,” sade Saxena.
“Vi ser redan att det inte ens ta fiffla ljud eller video för att få människor att tro något som inte är sant”, tillade Jenkins. “Detta har potential att göra det värre.”