AI kan bruges til at ansigt-swap Hollywood-stjerner i pornografi film

Billeder af Emma Watson, Daisy Ridley, Scarlett Johansson og andre bruges til at oprette falske voksen film, der ved hjælp af avanceret machine learning

@alexhern

Tor 25 Jan 2018 17.07 GMT

Sidst opdateret om Tor 25 Jan 2018 17.33 GMT

Emma Watson, Scarlett Johansson, Taylor Swift, Daisy Ridley, Sophie Turner and Maisie Williams have all been the subject of AI-assisted fake pornographic films.

Emma Watson, Scarlett Johansson, Taylor Swift, Daisy Ridley, Sophie Turner og Maisie Williams har alle været genstand for AI-assisteret falske pornografiske film.
Komposit: Guardian

Avancerede machine learning teknologi bliver brugt til at skabe falske pornografi med rigtige skuespillere og popstjerner, indsætte deres ansigter over eksisterende kunstnere i eksplicitte film.

Den resulterende klip, er fremstillet uden samtykke fra de kvinder, hvis ansigter er brugt, er ofte ikke kan skelnes fra en rigtig film, med kun subtilt uhyggelig forskelle tyder på, at noget er galt.

Et samfund på den sociale nyhedsside Reddit har brugt måneder på at skabe og dele de billeder, som oprindeligt blev lavet af en solo hobbyplan, der gik under navnet “deepfake”. Når teknologien site Bundkort første rapporterede om brugeren i December sidste år, havde de allerede lavet billeder med kvinder, herunder Wonder Woman stjernede Gal Gadot, Taylor Swift, Scarlett Johansson, og Game of Thrones skuespiller Maisie Williams.

I måneder siden, videoer med andre berømtheder, herunder Star Wars føre Daisy Ridley, Game of Thrones ‘ s Sophie Turner, og Harry Potter-stjernen Emma Watson er blevet lagt ud på websitet, der er blevet det vigtigste sted for deling af klip.

Mens simple ansigt swaps kan gøres i realtid ved hjælp af apps som Snapchat, kvaliteten af det arbejde, indsendt af deepfake krævede meget mere sagsbehandlingstiden, og et væld af originale materiale til AI-system til at lære fra. Men computeren videnskab bag det er almindeligt kendt, og en række forskere har allerede vist, at lignende ansigt swaps, der udføres ved hjælp af offentlige tal fra optagelserne.

Oprettelsen af ansigt-byttet pornografi hurtigt skaleres op i slutningen af December, når en anden Reddit-bruger (går ved navn “deepfaceapp”) udgivet en desktop app designet til at lade brugerne skabe deres egne klip. Selvom det ikke er let at bruge – app ‘ en tager otte til 12 timer på behandling tid til at gøre et kort klip – frigivelse af app galvaniserede oprettelse af mange flere billeder.

“Jeg tror, den nuværende version af app’ en er en god start, men jeg håber at strømline det endnu mere i de kommende dage og uger,” deepfakeapp fortalte Bundkort. “Sidst, jeg ønsker at forbedre det til det punkt, hvor potentielle brugere kan blot vælge en video på deres computer, kan du hente en neurale netværk, som er korreleret til et bestemt ansigt fra et offentligt tilgængeligt bibliotek, og bytte den video med et andet ansigt, med et tryk på en knap.”

Den lethed gøre meget plausibel falske videoer ved hjælp af neurale netværk-baseret teknologi har bekymret mange observatører, der frygter, at det varsler en kommende tid, hvor selv den grundlæggende realitet af optagede film, billede eller lyd, kan ikke have tillid til.

“Vi kan allerede se, at det ikke engang tage sminket lyd-eller video-til at få folk til at tro noget, der ikke er sandt,” Mandy Jenkins, sociale nyheder selskab Storyful, fortalte the Guardian sidste år. “Dette har potentiale til at gøre det værre.”


Date:

by