Donedavno je za izradu realistične deepfake pornografije bila potrebna računalna stručnost. Međutim, novi širokodostupni programi i alati promijenit će to zauvijek. To bi moglo prouzročiti val uznemiravanja žrtava, koje su najčešće žene, ali zapravo može biti bilo tko. Za nekoliko godina nikoga ne bi trebalo čuditi ako ugleda svoje lice u videu eksplicitnog sadržaja. Može li se tome stati na kraj ili se barem uvesti neke regulacije?
Ako netko danas želi uz pomoć umjetne inteligencije napraviti lažni video ili fotografije, dovoljno mu je otići u Google Play ili Apple Store i skinuti jednu od aplikacija za face swap. Istraživački laboratoriji Silicijske doline natječu se tko će proizvesti uspješniji model za generiranje slika, a svoje kodove neki od njih učinili su dostupnima javnosti. Iako su velike kompanije stavile određene restrikcije na kreiranje videa uz pomoć AI-a, svatko tko preuzme njihov kod može ga izmijeniti i koristiti bez ograničenja.
Od 2019. 96 posto deepfake sadržaja bila je pornografija, prema analizi tvrtke DeepTrace Technologies, a gotovo su svi prikazivali žene. Njihova prisutnost je otada narasla, a u međuvremenu nije osmišljena nikakva pravna regulacija koja bi mogla zaštititi žrtve. Drugim riječima, gotovo je nemoguće spriječiti nastajanje ovakvog sadržaja negdje u zakucima interneta, a pitanje je kako bi se uopće moglo kazniti počinitelje.
Jedan od najvećih problema je što unatoč sve većoj raširenosti deepfakea za njega većina populacije ne zna. Oslikava to i primjer američke učiteljice koja je izgubila posao nakon što su roditelji njezinih učenika otkrili njezin deepfake pornouradak. Uzalud im je objašnjavala o čemu je riječ, nisu joj povjerovali.
Najpoznatiji i možda najstrašniji slučaj korištenja umjetne inteligencije u svrhu ucjene, zastrašivanja i manipulacije je onaj istraživačke novinarke Rane Ayyub - "najzlostavljanije žene u Indiji" iz 2019.
Grupno silovanje osmogodišnje djevojčice iz Kašmira zgrozilo je svijet, a Nacionalistčka stranka Bhartiya Janata pružila je podršku optuženima, o čemu je Ayyub govorila za BBC i druge svjetske medije.
Kako bi joj se osvetili, ljudi bliski vlasti počeli su otvarati njezine lažne profile na Twitteru i pisati kako mrzi Indiju i Indijce, kako podržava silovanje. To je nije zaustavilo. Sve je kulminiralo kada je jednog dana dobila video koji prikazuje ženu s njezinim licem u seksualnom činu.
"Počela sam povraćati. Jednostavno nisam znala što da radim. Znala sam da je ovo velika stvar u zemlji poput Indije. Nisam znala kako reagirati, samo sam počela plakati", napisala je Ayyub u svojoj ispovijesti za Huffington Post.
Video je bio otvoreni poziv na linč, dozvola da se svatko može prema njoj ponašati kako god želi. Dio ljudi nije joj vjerovao kako to nije stvarno ona, dio je širio novi val mizoginih informacija. Namjerno ponižavanje i maltretiranje, kao i insinuacije o njezinu promiskuitetu i seksualnim odnosima s raznim javnim ličnostima, nastavili su se mjesecima.
Otkako se dogodio taj strašni slučaj, neke zemlje uvele su zabranu stvaranja deepfake pornografije, ali baš kao i fake news, teško ih je, ako ne i nemoguće kontrolirati. Zato se ključno informirati i širiti informacije koliko je jednostavno proizvesti takav sadržaj, koliko realistično izgleda i koliko je malo mogućnosti da se zabrani njegovo dijeljenje. U tom bi slučaju žrtva, čak i ako je potresena onim što vidi, mogla samo odmahnuti rukom jer bi javnost, poslodavci i obitelj znali o čemu je riječ i to ne bi imalo posljedica na njezin život.