Ostatnie wydarzenia rzucają światło na rosnące niebezpieczeństwo pornografii generowanej przez sztuczną inteligencję (AI) oraz na konieczność wprowadzenia zmian prawnych i społecznych.
Bycie kobietą w świecie online jest pełne obaw. Zarówno w świecie cyfrowym, jak i rzeczywistym, kobiety i osoby o marginalizowanych tożsamościach płciowych codziennie doświadczają nękania i nadużyć.
Przypadek Taylor Swift z tego tygodnia jest wyrazistym i przerażającym przykładem tego problemu. Sztucznie wygenerowane, pornograficzne obrazy Swift szybko zdobyły popularność na platformie X (dawniej Twitter), przy czym jeden z postów osiągnął ponad 45 milionów wyświetleń. Oburzeni fani zareagowali natychmiast, zalewając platformę pozytywnymi wiadomościami i obrazami piosenkarki, wykorzystując hasztagi takie jak „Taylor Swift AI” i „Taylor Swift deepfake”. Oddani fani artystki również spowodowali, że hashtag #ProtectTaylorSwift zyskał na popularności, z tysiącami wpisów potępiających obrazy bez zgody Swift.
To zdarzenie nie jest odosobnione. Swift, będąca jedną z najbardziej rozpoznawalnych postaci na świecie, jest najnowszą ofiarą wykorzystania deepfake’ów przeciwko niej. Podobne sytuacje miały miejsce w przypadku gwiazd K-popu, twórców TikToka, dziennikarek i uczennic szkół średnich.
Czym jest pornografia deepfake?
Pornografia deepfake to wizualizacje tworzone przez specyficzny rodzaj uczenia maszynowego, przedstawiające ludzi w seksualnych kontekstach bez ich zgody. Rozpowszechnianie tego rodzaju materiałów jest formą nadużycia opartego na obrazie i zostało zakazane w niektórych krajach. Tak jak pornografia zemsty, pornografia deepfake powoduje szkody psychologiczne, osobiste i zawodowe dla osób, które przedstawia.
Badanie z 2023 roku przeprowadzone przez Home Security Heroes wykazało, że pornografia deepfake stanowi 98% wszystkich filmów deepfake dostępnych online, a 99% celów deepfake to kobiety.
Niektóre kraje na świecie wprowadziły lub planują wprowadzić przepisy chroniące ofiary niezgody na udostępnianie intymnych obrazów.
W Anglii i Walii, od czerwca 2023 roku, udostępnianie pornografii deepfake jest karane. Rząd Wielkiej Brytanii ogłosił walkę z osobami, które bez zgody rozpowszechniają intymne obrazy online.
W USA 48 stanów i Dystrykt Kolumbii mają ustawy przeciwko pornografii zemsty. Niektóre stany aktualizują swoje przepisy, aby uwzględnić pornografię deepfake, w tym Illinois, Wirginia, Nowy Jork i Kalifornia. Jednak przepisy różnią się w zależności od stanu.
Jak molochy radzą sobie z takimi przypadkami?
X, platforma, na której rozpowszechniano obrazy Swift, zakazuje udostępniania „sztucznych, manipulowanych lub wyjętych z kontekstu mediów”. Inne platformy, takie jak Reddit, również mają politykę zapobiegającą udostępnianiu intymnych mediów bez zgody.
W 2021 roku Meta wprowadziła narzędzie do wykrywania deepfake’ów, współpracując z brytyjską platformą StopNCII.org. Niedawno firma macierzysta Facebooka i Instagrama ogłosiła, że wszelkie cyfrowo zmienione obrazy dotyczące kwestii społecznych, wyborczych i politycznych muszą być oznaczone.
Przypadek Swift podkreśla, że takie zdarzenia mogą dotyczyć każdego. Zanim sytuacja się pogorszy, nadszedł czas na zmiany, zarówno w technologii, prawie, jak i świadomości społecznej, aby przeciwdziałać rosnącej fali pornografii deepfake.
Źródło:
https://mashable.com/article/taylor-swift-viral-deepfake-porn-explainer