Porno deepfake z Taylor Swift viralem na X

Porno deepfake  z Taylor Swift viralem na X
Porno deepfake z Taylor Swift viralem na X

Ostatnie wydarzenia rzucają światło na rosnące niebezpieczeństwo pornografii generowanej przez sztuczną inteligencję (AI) oraz na konieczność wprowadzenia zmian prawnych i społecznych.

Bycie kobietą w świecie online jest pełne obaw. Zarówno w świecie cyfrowym, jak i rzeczywistym, kobiety i osoby o marginalizowanych tożsamościach płciowych codziennie doświadczają nękania i nadużyć.

Przypadek Taylor Swift z tego tygodnia jest wyrazistym i przerażającym przykładem tego problemu. Sztucznie wygenerowane, pornograficzne obrazy Swift szybko zdobyły popularność na platformie X (dawniej Twitter), przy czym jeden z postów osiągnął ponad 45 milionów wyświetleń. Oburzeni fani zareagowali natychmiast, zalewając platformę pozytywnymi wiadomościami i obrazami piosenkarki, wykorzystując hasztagi takie jak „Taylor Swift AI” i „Taylor Swift deepfake”. Oddani fani artystki również spowodowali, że hashtag #ProtectTaylorSwift zyskał na popularności, z tysiącami wpisów potępiających obrazy bez zgody Swift.

To zdarzenie nie jest odosobnione. Swift, będąca jedną z najbardziej rozpoznawalnych postaci na świecie, jest najnowszą ofiarą wykorzystania deepfake’ów przeciwko niej. Podobne sytuacje miały miejsce w przypadku gwiazd K-popu, twórców TikToka, dziennikarek i uczennic szkół średnich.

Czym jest pornografia deepfake?

Pornografia deepfake to wizualizacje tworzone przez specyficzny rodzaj uczenia maszynowego, przedstawiające ludzi w seksualnych kontekstach bez ich zgody. Rozpowszechnianie tego rodzaju materiałów jest formą nadużycia opartego na obrazie i zostało zakazane w niektórych krajach. Tak jak pornografia zemsty, pornografia deepfake powoduje szkody psychologiczne, osobiste i zawodowe dla osób, które przedstawia.

Badanie z 2023 roku przeprowadzone przez Home Security Heroes wykazało, że pornografia deepfake stanowi 98% wszystkich filmów deepfake dostępnych online, a 99% celów deepfake to kobiety.

Niektóre kraje na świecie wprowadziły lub planują wprowadzić przepisy chroniące ofiary niezgody na udostępnianie intymnych obrazów.

W Anglii i Walii, od czerwca 2023 roku, udostępnianie pornografii deepfake jest karane. Rząd Wielkiej Brytanii ogłosił walkę z osobami, które bez zgody rozpowszechniają intymne obrazy online.

W USA 48 stanów i Dystrykt Kolumbii mają ustawy przeciwko pornografii zemsty. Niektóre stany aktualizują swoje przepisy, aby uwzględnić pornografię deepfake, w tym Illinois, Wirginia, Nowy Jork i Kalifornia. Jednak przepisy różnią się w zależności od stanu.

Jak molochy radzą sobie z takimi przypadkami?

X, platforma, na której rozpowszechniano obrazy Swift, zakazuje udostępniania „sztucznych, manipulowanych lub wyjętych z kontekstu mediów”. Inne platformy, takie jak Reddit, również mają politykę zapobiegającą udostępnianiu intymnych mediów bez zgody.

W 2021 roku Meta wprowadziła narzędzie do wykrywania deepfake’ów, współpracując z brytyjską platformą StopNCII.org. Niedawno firma macierzysta Facebooka i Instagrama ogłosiła, że wszelkie cyfrowo zmienione obrazy dotyczące kwestii społecznych, wyborczych i politycznych muszą być oznaczone.

Przypadek Swift podkreśla, że takie zdarzenia mogą dotyczyć każdego. Zanim sytuacja się pogorszy, nadszedł czas na zmiany, zarówno w technologii, prawie, jak i świadomości społecznej, aby przeciwdziałać rosnącej fali pornografii deepfake.

Źródło:

https://mashable.com/article/taylor-swift-viral-deepfake-porn-explainer

Dołącz do Patronów i czytaj premium treści o AI 🤖
This is default text for notification bar