Lisanne Beijen
Lisanne Beijen | LinkedIn Tech 31 jan 2018

Deepfakes: met AI gemaakte nep-porno met celebrities wordt verwijderd

Een aantal weken geleden leek het een bizarre trend te worden: Redditors maakten me hulp van kunstmatige intelligentie neppe porno met beroemdheden er in. Deze mogelijkheden van AI zijn voor velen beangstigend, omdat dit gebruik niet alleen onwenselijk maar ook gevaarlijk is. Het lijkt er nu op dat iemand eindelijk de controversiële content van sommige platforms te halen waarop het te zien was, waaronder Reddit en Gyfcat.

Deepfakes een bizarre trend

De vreemde trend die ook wel ‘Deepfakes’ werd genoemd, begon kort nadat Motherboard naar buiten kwam met het nieuws over met AI gemaakte nep-porno. In die nep video’s werd het gezicht van Wonder Woman’s Gal Gadot gebruikt in een echte pornovideo. Toen een aantal Redditors aan de slag gingen met AI verscheen er nog meer beeldmateriaal online. De Reddit-gebruikers gingen zelfs zo ver dat ze een eigen app bouwden, genaamd FakeApp, die het voor iedereen gemakkelijk maakt om hun eigen neppe video’s te delen.

Ai porno

Nep-porno verdwijnt van Reddit en Gfycat

Op sommige platforms komt de Deepfakes-trend nu tot een einde. Dat werd tijd. Een aantal oplettende Reddittors hebben opgemerkt dat veel Deepfake-video’s plotseling van Reddit en Gfycat zijn verwijderd. In het specifiek de video’s die in een subreddit werden geplaatst die was bedoeld voor pornografische Deepfakes zijn verwijderd. Er worden nog wel nieuwe neppe video’s op Gfycat geüpload, alleen de meeste beelden die ouder zijn dan een dag zijn er al weer afgehaald.

Het lijkt er op dat er op vrij rigoureuze wijze beelden zijn verwijderd van Gfycat, aangezien ook Deepfakes met mensen die niet eens op een bekendheid lijken zijn verwijderd. Naast de verontrustende pornografische Deepfakes, werden er ook een aantal meer onschuldige en geinige video’s gemaakt met de techniek. Zo werd Nicolas Cage bijvoorbeeld in verschillende films verwerkt waarin hij nooit heeft gespeeld. Ook sommige van deze onschuldige video’s zijn verwijderd van Reddit en Gfycat.

Het blijft verontrustend dat deze techniek wordt gebruikt om mensen in video’s te verwerken waar ze niks mee te maken hebben. Het schijnt ook onduidelijk te zijn welke maatregelen men moet treffen om de beelden weer uit de lucht te krijgen. Dit is nog een erg grijs gebied. The Verge sprak hierover met Eric Goldman, een rechtsgeleerde van de Santa Monica University, en zei hierover dat het verwijderen van de content wellicht in strijd is met het eerste amendement in de Amerikaanse grondwet.

Reddit

Volgens de rechtsgeleerde zijn er veel wetten die misschien van toepassing zijn op een dergelijke situatie, maar is er geen enkele wet die het verbiedt om neppe porno te maken. Omdat de lichamen die in de video te zien zijn niet de lichamen van de celebrities zijn, is het lastig om iemand te vervolgen vanwege het scheden van privacy. Je kunt iemand moeilijk vervolgen voor het laten zien van je lichaam, als in werkelijkheid niet echt jouw lichaam te zien is. Maar geef iemand eens ongelijk er aanstoot aan te nemen zijn of haar hoofd terug te zien in een pornovideo.

De mogelijkheden die tech biedt voor porno blijven groeien. Soms in positieve zin, en soms brengt het een hoop implicaties met zich mee. VR-porno is bijvoorbeeld een snel groeiende business. Benieuwd naar deze techy manier van porno kijken? Hier lees je er alles over.

Reageer op artikel:
Deepfakes: met AI gemaakte nep-porno met celebrities wordt verwijderd
Sluiten