Oh fuck: Deepfake kan elk gezicht vervangen in video

Oooooh boy. Ik had voor deze week nog nooit van Deepfake gehoord, maar ik weet vrij zeker dat het in de komende dagen en weken een groot ding gaat worden. Deepfakes (NIET VEILIG) is de naam van een subforum op Reddit waar je op dit moment vooral porno kunt zien. Is dat zo spannend dan? Nee, an sich niet.

Misschien helpt het als ik er bij vertel dat je korte filmpjes kunt zien waarin Scarlet Johansson, Gal Gadot, Katy Perry, Taylor Swift, Megan Fox, Daisey Ridley, Sophie Turner en nog vele andere bekende actrices er ongenadig van langs krijgen en dat je nauwelijks tot niet kunt zien dat ze het niet echt zijn.

Daar gaat het niet om

Maar het gaat niet om de porno die opeens overal zal opduiken. OK, voorlopig zal het gaan over de porno die overal gaat opduiken. Maar we moeten ons realiseren dat het nu voor elke amateur mogelijk is om het gezicht van iemand te vervangen in een video zonder al te veel moeite.

Daar zit namelijk het bizarre van dit verhaal: de gebruiker deepfakes heeft zelf uitgevogeld hoe hij met gebruikmaking van neurale netwerken (zoals Google dat ook doet) een AI kan leren hoe iemand er uit ziet, door er simpelweg een berg foto- en videomateriaal in te gooien. Als de AI dan voldoende getraind is kan ‘ie in een andere video het gezicht vervangen door wat er is ingegooid.

Als die man (gokken we) dat voor zichzelf had gehouden was het nog tot daar aan toe geweest, maar hij heeft dus nu een stuk software publiek beschikbaar gemaakt dat het relatief simpel maakt voor mensen die niet kunnen programmeren om dit ook te doen. Daarom zit r/deepfakes ineens tjokkievol met bekende-mensen-porno. Maar dat is slechts stap één.

Powered by WPeMatico

Aanbevolen artikelen