Obserwuj

Usługi tworzenia intymnych treści za pomocą AI zyskują na popularności

Usługi tworzenia intymnych treści za pomocą AI zyskują na popularności
Usługi tworzenia intymnych treści za pomocą AI zyskują na popularności

Firma analityczna mediów społecznościowych Graphika odnotowała znaczny wzrost ofert usług wytwarzania sztucznych, nielegalnych treści intymnych (NCII).

Firma Graphika stwierdziła, że wzrasta użycie “AI do rozbierania” osób.

Ta praktyka polega na wykorzystywaniu narzędzi sztucznej inteligencji (AI) do precyzyjnego usuwania ubrań ze zdjęć dostarczanych przez użytkowników.

Według raportu Graphiki, firma zmierzyła liczbę komentarzy i postów na Reddicie i X (dawniej Twitter) zawierających linki polecające do 34 stron internetowych i 52 kanałów Telegram oferujących usługi sztucznych nielegalnych treści intymnych (NCII), z 1,280 w 2022 roku do ponad 32,100 w 2023 roku — wzrost o 2,408% rok do roku.

Sztuczne NCII często obejmuje generowanie wyraźnych treści bez zgody osób przedstawionych.

Graphika stwierdza, że te narzędzia AI ułatwiają i obniżają koszty masowego tworzenia realistycznych treści eksploracyjnych dla wielu dostawców.

Bez tych dostawców, klienci stanęliby przed wyzwaniem zarządzania własnymi modelami dyfuzji obrazów, co jest czasochłonne i potencjalnie kosztowne.

Graphika ostrzega, że rosnące użycie narzędzi AI do rozbierania może prowadzić do tworzenia fałszywych treści eksploracyjnych i przyczyniać się do problemów takich jak nękanie, sextortion i produkcja materiałów z wykorzystaniem seksualnym dzieci (CSAM).

Chociaż AI do rozbierania zazwyczaj koncentruje się na zdjęciach, AI została również wykorzystana do tworzenia wideo deepfake z wykorzystaniem podobieństwa celebrytów, w tym youtubera Mr. Beasta i aktora hollywoodzkiego Toma Hanksa.

W osobnym raporcie z października, brytyjska organizacja nadzorująca internet Internet Watch Foundation (IWF) zauważyła, że znalazła ponad 20,254 obrazy wykorzystania dzieci na jednym forum dark web w ciągu jednego miesiąca. IWF ostrzega, że AI-generowana pornografia dziecięca może zalać internet.

Z powodu postępów w generatywnej grafice AI, IWF ostrzega, że odróżnienie deepfake pornografii od autentycznych obrazów stało się bardziej wyzwaniem.

W raporcie z 12 czerwca, Organizacja Narodów Zjednoczonych nazwała media generowane przez AI “poważnym i pilnym” zagrożeniem dla integralności informacji, zwłaszcza w mediach społecznościowych. W piątek, 8 grudnia, negocjatorzy Parlamentu Europejskiego i Rady zgodzili się na zasady dotyczące użycia AI w Unii Europejskiej.

Dołącz do Patronów i czytaj premium treści o AI 🤖
This is default text for notification bar