Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
piątek, 15 listopada 2024 23:41
Reklama KD Market

Fałszywki w sieci

Fałszywki w sieci
(fot. Pixabay)

Pozornie reklama wideo wygląda autentycznie, choć jest kontrowersyjna. Kobieta w białej koronkowej sukience robi sugestywne miny, a następnie klęka. Jest w niej coś niesamowitego i pociągającego, aż do chwili, gdy okazuje się, że jest to filmik porno. Główną postacią jest wspomniana kobieta, która zdradza wyraźne podobieństwo do aktorki Emmy Watson. Problem w tym, że to tylko jej twarz, dodana do reszty ciała przy pomocy elektronicznej manipulacji...

Zamiana twarzy

Film jest typowym przykładem tzw. deepfake porn, czyli treści pornograficznych spreparowanych przy pomocy zaawansowanych narzędzi komputerowych. Popyt na tego rodzaju fałszywki dynamicznie rośnie. Specjaliści w tym roku odkryli w serwisach takich jak Facebook i Instagram ponad 230 reklam wideo, które kierowały użytkowników albo do podrobionych filmów, albo też do aplikacji tworzącej takie filmy. Większość reklam zawierała wizerunek jakiejś znanej aktorki: Emmy Watson, Scarlett Johansson, Nicole Kidman, itd. Te same reklamy pojawiły się w aplikacjach do edycji zdjęć i gier dostępnych w Apple Store.

By przekaz był jednoznaczny i wyrazisty, reklamy wyraźnie wskazują, że mają pomagać użytkownikom w tworzeniu pornografii z kobietami, które im się podobają, oczywiście bez ich zgody. „Zamień dowolną twarz w filmie!” – można w tych materiałach przeczytać. „Zamień twarz na kogokolwiek. Baw się dobrze dzięki technologii zamiany twarzy AI”.

Podobne reklamy deepfake pojawiają się bezpośrednio obok filmów pornograficznych w witrynie PornHub, która od lat zajmuje się propagowaniem tego rodzaju treści. Chociaż technologia fałszowania zapisów wideo może teoretycznie być wykorzystywana do wszelkiego rodzaju treści – od żartobliwej satyry po złośliwe polityczne kampanie dezinformacyjne – w przeważającej części jest wykorzystywana do tworzenia pornografii z twarzami ludzi zarówno powszechnie znanych, jak i przyjaciół, wrogów, członków rodziny, itd. Według raportu sprzed trzech lat 96 proc. materiałów typu deepfake to treści pornograficzne.

Nagły wzrost zainteresowania fałszywą pornografią nastąpił po kontrowersjach, które wstrząsnęły społecznościami gier wideo w styczniu, kiedy to popularny streamer Brandon Ewing – który nazywa siebie „Atrioc” – zaprezentował porno w wykonaniu kilku popularnych wśród graczy kobiet. Później przyznał się, że zapłacił za te sesje nagrań przyjaciółkom, a potem filmy odpowiednio przerobił, dorabiając im twarze osób znanych jego odbiorcom.

Kiedy wszystko to wyszło na jaw, Ewing przeprosił, ale wielu jego męskich fanów doszło do wniosku, że wikłanie różnych ludzi w fikcyjne materiały pornograficzne to świetny pomysł. Genevieve Oh, badaczka zajmująca się analizowaniem streamingu, twierdzi, że po przeprosinach Ewinga ruch internetowy związany z najpopularniejszymi stronami pornograficznymi typu deepfake „wystrzelił niczym z procy”. W 2018 roku mniej niż 2 tysiące filmów zostało przesłanych do najbardziej znanej witryny parającej się tego rodzaju materiałami. Cztery lata później liczba ta wzrosła do 13 tysięcy, a miesięczna liczba wyświetleń wyniosła 16 milionów.

Pornografia zemsty

Zjawisko to zwane jest czasami epidemią pornografii zemsty. Jest to dość adekwatny termin, ponieważ sfałszowane filmy pornograficzne często nie mają nic wspólnego ze znanymi ludźmi estrady czy filmu. Niemal każdy może się na kimś zemścić przez spreparowanie pornograficznego wideo z udziałem znienawidzonego sąsiada, byłej żony, wroga z pracy, szefa, etc.

Niestety technika preparowania zapisów wideo zaszła na tyle daleko, iż bardzo często wykrycie, iż ktoś ogląda fałszywkę, jest trudne. Jest to zasługa coraz bardziej wyszukanych narzędzi sztucznej inteligencji, dzięki którym można w sposób bardzo przekonujący manipulować mimiką twarzy, kontekstem, w którym ta twarz się pojawia i dopasowywaniem mowy do ruchu ust.

Gwałtowny wzrost liczby i dostępności fałszywych filmów pornograficznych, generowanych bez zgody uwikłanych w to ludzi, rodzi niepokojące pytania dotyczące prywatności. W jaki sposób widzowie mogą rozpoznawać różnicę między faktami a fikcją generowaną przez sztuczną inteligencję? W jaki sposób można usunąć materiały stworzone niezgodnie z prawem?

Wydaje się niestety, że wielu mężczyzn nadal uważa pornografię za wyraz pogardy dla kobiet i zdaje się korzystać z faktu, że seksualne przedstawianie kobiet, szczególnie bez ich wiedzy, jest dla ofiar tego rodzaju praktyk poniżające. W rzeczywistości na tym polega atrakcyjność deepfake porn: umożliwia mężczyznom wyobrażanie sobie, że mogą kontrolować kobiety i zadawać im ból. W Internecie nie brakuje oczywiście treści seksualnych, które powstały za zgodą wszystkich uczestników, ale to nie te materiały cieszą się dziś największą popularnością.

Niestety na razie osoby, które stały się ofiarami autorów sfałszowanej pornografii, mają dość ograniczone możliwości dochodzenia swych praw. Większość stanów posiada teoretycznie przepisy pozwalające na karanie autorów deepfake porn, ale tylko cztery – Kalifornia, Nowy Jork, Georgia i Wirginia – zakazują całkowicie produkcji i rozpowszechniania tego typu treści. Firmy udostępniające odpowiednie aplikacje często mają siedziby za granicą, w większości poza zasięgiem amerykańskich organów ścigania. Podobnie, choć nie zawsze, jest w przypadku ludzi, którzy korzystają z tych programów, by tworzyć zmanipulowane filmy pornograficzne.

Problem w tym, że dziś niemal każdy może stać się bezwiednym bohaterem lub bohaterką produkcji, która wygląda jak autentyczny film, ale nim nie jest. Może to powodować nie tylko cierpienia i drwiny, ale prowadzi czasami do istotnych konsekwencji, takich jak rozwody, problemy w pracy, konflikty między przyjaciółmi czy samobójstwa, szczególnie wśród nieletnich. Niestety to ostatnie zjawisko staje się coraz większym problemem i nikt nie wie na razie, jak temu zaradzić.

Krzysztof M. Kucharski

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama
Reklama
Reklama
Reklama