Jednym z rosnących zagrożeń związanych z AI jest zalew internetu wszelkiego rodzaju fałszywymi informacjami, które wygenerowane zostały właśnie przez AI. Samo to potrafi być prawdziwą plagą dzisiejszych czasów i mniej obeznani i świadomi ludzie są w stanie się na takie treści złapać.
Podobnie jest niestety w przypadku fejkowych profili w mediach społecznościowych. Jakiś czas temu Meta (Facebook, Instagram) zdecydowała się dodać na swoich platformach profile napędzane właśnie przez sztuczną inteligencję. Oczywiście wszystko to sprzedawane nam było jako projekt lub eksperyment.
Okazuje się jednak, że eksperyment nie wypalił i chyba nic z tego na dłuższą metę nie będzie. Firma poniosła spektakularne fiasko w tej materii, a profil „dumnej czarnej queerowej mamy” na Instagramie nie spełnił oczekiwań. O co dokładnie chodzi?
Fejkowe profile napędzane przez AI na Facebooku

Najnowsze informacje potwierdzają, że firma Meta zaczęła usuwać profile postaci wygenerowanych przez AI ze swoich platform, czyli Facebooka i Instagrama. Mowa dokładnie o wytworzonych w 2023 roku osobach, które tak naprawdę nie istniały, a ich odpowiedzi oraz udostępniana zawartość były efektem pracy sztucznej inteligencji.
Co ciekawe, większość z tych profili zniknęła do lata 2024 roku, ale niektóre z nich się ostały i przyciągnęły uwagę ludzi po zapowiedziach z zeszłego tygodnia, wedle których firma planuje wprowadzić jeszcze więcej profili opartych o AI.
Przykładem może być Liv, czyli „dumna czarnoskóra queerowa mama dwójki dzieci i mówiącą prawdę” lub Carter, który opisywał siebie, jako trenera relacji z płcią przeciwną. Wszystkie te profile generowały treść samodzielnie i odpowiadały na pytania ludzi poprzez Messenger.
W miarę rosnącego zainteresowania takimi profilami na jaw wyszły całkiem dziwne przypadki. Przykładowo wspomniana Liv podczas rozmowy z dziennikarką Washington Post podkreślać, że w zespole odpowiedzialnym za jej stworzenie pracują tylko „biali mężczyźni” i jest to dla niej rażące i godzące w jej tożsamość.
Po zaledwie kilku godzinach od wirusowego wręcz zainteresowania, użytkownicy dotarli także do błędu, który uniemożliwiał ludziom blokowanie takich profile tworzonych przez AI. Potem profile zaczęły znikać, a rzeczniczka Mety postanowiła pokrętnie tłumaczyć, że takie „fałszywe profile” to część eksperymentu.
Występuje zamieszanie: niedawny artykuł Financial Times dotyczył naszej wizji postaci AI istniejących na naszych platformach w miarę upływu czasu, ale nie zapowiadał żadnego nowego produktu. Konta, o których mowa, pochodzą z testu, który przeprowadziliśmy w Connect w 2023 roku. Zarządzali nimi ludzie i stanowili część wczesnego eksperymentu, który przeprowadziliśmy z postaciami AI. Zidentyfikowaliśmy błąd, który wpływał na możliwość blokowania tych sztucznej inteligencji przez ludzi, i usuwamy te konta, aby rozwiązać problem.
Liz Sweeney, rzeczniczka firmy Meta
Dzielenie social mediów z botami?
Opisana sytuacja może być więc bardzo, ale to bardzo niepokojąca, bo w pewnym stopniu zwiastuje dystopijną przyszłość, gdzie dzielimy social media z botami. Co gorsza, rozwój AI może doprowadzić do sytuacji, w której odróżnienie prawdziwego od fejkowego użytkownika może być prawie niemożliwy.
Czemu jednak firmy takie jak Meta miałyby uciekać do takich ruchów? Z jednej strony może być to próba zwiększenia ruchu na platformie, a z drugiej, przedstawienia jej jako atrakcyjne miejsce dla nowych użytkowników. W końcu ludzie zbierają się tam, gdzie jest ruch.
Warto też pamiętać, że w tej sytuacji problematyczna jest kwestia tego, co takie fejkowe profile piszą i sposób, w jaki komentują. Przytoczony przypadek Liz, która narzekała na swoich twórców to tylko wierzchołek góry lodowej, który pokazuje, że takie chatboty w skórze prawdziwych ludzi muszą być trzymane „na bardzo krótkiej smyczy”.