AI används för att face-swap Hollywood-stjärnor i pornografi filmer

Bilder av Emma Watson, Daisy Ridley, Scarlett Johansson och andra som används för att skapa falska vuxen filmer med hjälp av avancerad maskin lärande

@alexhern

Tor 25 Jan 2018 17.07 GMT

Senast ändrad Tor 25 Jan 2018 17.33 GMT

Emma Watson, Scarlett Johansson, Taylor Swift, Daisy Ridley, Sophie Turner and Maisie Williams have all been the subject of AI-assisted fake pornographic films.

Emma Watson, Scarlett Johansson, Taylor Swift, Daisy Ridley, Sophie Turner och Maisie Williams har alla varit föremål för AI-assisted falska pornografiska filmer.
Komposit: Väktare

Avancerad maskin lärande-tekniken används för att skapa falska pornografi med riktiga skådespelare och pop stjärnor, klistra in i deras ansikten över befintliga modeller i erotiska filmer.

Den resulterande klipp, som görs utan tillstånd från kvinnor vars ansikten är som används, är ofta omöjlig att skilja från en riktig film, med bara subtilt kuslig skillnader vilket tyder på att något är galet.

En community på den sociala nyhetssidan Reddit har tillbringat månader att skapa och dela bilder, som ursprungligen gjorts av ett solo hobby som gick under namnet “deepfake”. När tekniken webbplats Moderkort först rapporterade om användaren i December förra året, de hade redan gjort bilder med kvinnor inklusive Wonder Woman stjärniga Gal Gadot, Taylor Swift, Scarlett Johansson, och Game of Thrones skådespelare Maisie Williams.

Under de månader sedan, videor med andra kändisar inklusive Star Wars leda Daisy Ridley, Game of Thrones är Sophie Turner, och Harry Potter-stjärnan Emma Watson har varit inlagd på webbplatsen, som har blivit den viktigaste platsen för att dela klippen.

Medan enkel ansikte swappar kan göras i realtid med hjälp av appar som Snapchat, kvaliteten på arbetet postat av deepfake krävs mycket mer handläggningstiden, och en uppsjö av ursprungliga material för AI-system för att lära sig från. Men datorn vetenskap bakom det är allmänt känt, och ett antal forskare har redan visat liknande ansikte valutaswappar som genomförs med hjälp av offentliga siffror från nyheter klipp.

Skapandet av ansikte bytte pornografi snabbt skalas upp i slutet av December, när en annan Reddit-användare (som går under namnet “deepfaceapp”) släpptes en desktop-app för att låta dem skapa sina egna klipp. Medan det inte är lätt att använda – appen tar åtta till 12 timmar av bearbetning tid att göra ett kort klipp – lanseringen av appen påskyndat skapandet av många fler bilder.

“Jag anser att den nuvarande versionen av appen är en bra start, men jag hoppas att effektivisera det ännu mer under de kommande dagarna och veckorna,” deepfakeapp berättade för Moderkort. “Så småningom, jag vill förbättra det till den punkt där potentiella användare kan enkelt välja en video på sin dator, ladda ner ett neuralt nätverk som är korrelerade till en viss ansikte från en offentligt tillgänglig bibliotek, och byta video med ett annat ansikte med tryck av en knapp.”

Enkel att göra extremt rimligt falska videor med hjälp av neurala nät-baserad teknik har oroat många observatörer, som fruktar att det förebådar en kommande tid när även den grundläggande verkligheten av inspelad film, bild eller ljud inte kan lita på.

“Vi ser redan att det inte ens ta fiffla ljud eller video för att få människor att tro något som inte är sant,” Mandy Jenkins, från sociala nyheter företaget Storyful, berättade för the Guardian förra året. “Detta har potential att göra det värre.”


Date:

by