Wszystko to będzie siecią neuronową nauczoną, by odsłonić twarze sławnych pornacterów

Użytkownik Reddit pod pseudonimem Deepfakes uczył sieci neuronowej, jak tworzyć fałszywe gwiazdy porno z celebrytami. Teraz, aby stać się pornakter, nieświadomie, może każdy.


Źródło: płyta główna

Online porn pojawił się z udziałem Gal Gadot. Ale w rzeczywistości nie jest to znana aktorka, ale tylko jej twarz. Fałszywy film został utworzony przy użyciu algorytmu uczenia maszynowego oraz bibliotek TensorFlow i Keras. Deepfakes opublikował już filmy Scarlett Johansson, Macy Williams, Taylor Swift i Aubrey Plaza.

Deepfakes poinformował, że wykorzystał wyszukiwarkę obrazów Google i filmy z YouTube do stworzenia filmu. Więc nie tylko celebryta, ale także kolega lub po prostu przypadkowa osoba może stać się "ofiarą". Sztuczna inteligencja porównuje oryginalne zdjęcia z wideo, aby obraz wyglądał jak najbardziej wiarygodny. Badacz sztucznej inteligencji Alex Champandar powiedział, że dobra, droga karta wideo poradzi sobie z tym zadaniem w ciągu kilku godzin, zwykły komputer zrobi to za kilka dni..

Niepokojący jest fakt, że w tym przypadku nie ma praktycznie żadnych przeszkód technicznych, ale nie brakuje również materiału źródłowego. Tak więc od 2015 do 2016 roku internauci opublikowali ponad 24 miliardy autotypów. Tak więc prawie każda osoba może zostać naruszona w ten sposób..

Aktorka porno Grace Evangeline (Grace Evangeline) w komentarzach do płyty głównej powiedziała, że ​​widzi to po raz pierwszy. Już wcześniej poznała fałszywe filmy z celebrytami, ale nie tak wiarygodne. Evangeline uważa, że ​​robienie takich filmów bez zgody aktorek jest błędne.

Była aktorka porno Alia Janine (Alia Janine) była również niezadowolona z fałszywych filmów: "To pokazuje, że niektórzy ludzie widzą tylko obiekty kobiet, którymi można manipulować." To całkowity brak szacunku dla pornoakterów i znanych aktorek ".

Alex Champandar uważa, że ​​jeśli ktokolwiek może stać się "ofiarą" fałszywej pornografii, musisz to upublicznić..

"Każdy powinien wiedzieć, jak łatwo jest sfałszować film do tego stopnia, że ​​nie możemy przez długi czas stwierdzić, że jest fałszywy, oczywiście, że można go było zrobić wcześniej, ale potrzebował on wielu zasobów i umiejętności. Teraz te filmy można zrobić każdy programista z najnowszym sprzętem komputerowym. " "Każda technologia może być wykorzystywana w złych intencjach, a jej użyteczność i łatwość to wykorzystanie Nie sądzę, że rosnące zainteresowanie uczeniem się maszyn wśród zwykłych ludzi jest złe" - skomentował Deepfakes w tej sprawie.