Niewidzialni galernicy. Demaskujemy mit „magicznej, autonomicznej” sztucznej inteligencji
Wpisujesz polecenie w lśniące, minimalistyczne okno przeglądarki. Mija zaledwie sekunda, a na ekranie pojawia się perfekcyjnie sformułowany tekst, genialny kod programistyczny lub zachwycająca grafika. Czujesz się, jakbyś obcował z czystą, niematerialną magią rodem z eteru. Prawda jest jednak znacznie bardziej brutalna i brudna. Za tą cyfrową iluzją autonomii i perfekcji kryje się potężna armia źle opłacanych, niewidzialnych ludzi, ukrytych na drugim końcu świata. Witajcie w erze cyfrowego kolonializmu.
Przez ostatnie lata Dolina Krzemowa z ogromnym sukcesem sprzedawała nam narrację o „chmurze” i „sztucznej inteligencji” jako o bytach niematerialnych. Słowo „chmura” sugeruje coś lekkiego, zawieszonego w powietrzu, czystego. Termin „sztuczna inteligencja” ewokuje z kolei obraz niezależnego, krzemowego mózgu, który sam z siebie generuje wiedzę, ucząc się w sterylnych serwerowniach. Uwierzenie w tę narrację było nam wszystkim na rękę, bo pozwalało zachować czyste sumienie. Kiedy zachwycamy się elokwencją ChatGPT, wyważonym tonem bota obsługi klienta czy tym, jak modele językowe grzecznie odmawiają wygenerowania przepisu na bombę, myślimy: „jakie to sprytne i bezpieczne oprogramowanie”.
Problem polega na tym, że oprogramowanie nie ma kręgosłupa moralnego, nie ma pojęcia o bezpieczeństwie i nie wie, co to grzeczność. Oprogramowanie potrafi jedynie obliczać prawdopodobieństwo. Aby wykrzesać z miliardów parametrów pożądane, „cywilizowane” zachowanie, potrzeba potężnej interwencji czynnika ludzkiego. I tu na scenę wkraczają oni – cyfrowi galernicy, których pot wylany przed ekranami pozwala zachodniemu światu wierzyć w mit maszyny myślącej.
Syndrom Mechanicznego Turka
W 1770 roku węgierski wynalazca Wolfgang von Kempelen zaprezentował na dworze w Wiedniu niezwykłą maszynę. Był to „Mechaniczny Turek” – automat w postaci figury ubranej w orientalne szaty, siedzącej za wielką szafką z szachownicą. Maszyna potrafiła grać w szachy na mistrzowskim poziomie, pokonując nawet Napoleona Bonaparte czy Benjamina Franklina. Widzowie byli zachwyceni tą mechaniczną inteligencją. Tajemnica wyszła na jaw lata później: maszyna nie myślała. Wewnątrz obszernej szafki, pośród trybików i zębatek, ukryty był żywy, wybitny szachista, który pociągał za odpowiednie dźwignie za pomocą systemu magnesów.
Dziś, w trzeciej dekadzie XXI wieku, Dolina Krzemowa zbudowała Mechanicznego Turka na skalę planetarną. Zresztą, Amazon nawet nie ukrywa tej historycznej ironii – jego platforma crowdsourcingowa, służąca do zlecania najprostszych mikrozadań cyfrowych, wprost nazywa się Amazon Mechanical Turk.
Zjawisko to badaczka Mary L. Gray w swojej głośnej książce określiła mianem Ghost Work (praca widmo). Sztuczna inteligencja, którą się tak zachwycamy, w rzeczywistości nie automatyzuje w pełni pracy. Ona ją po prostu marginalizuje, ukrywa i przenosi tam, gdzie ludzka siła robocza jest tańsza niż prąd niezbędny do zasilenia serwerów. My na Zachodzie widzimy lśniący interfejs, ale trybiki wewnątrz tej maszyny napędzane są przez tysiące clickworkerów (klikaczy) z Globalnego Południa.
Sprzątacze naszych cyfrowych brudów
Zastanówmy się, jak w ogóle powstają te „inteligentne” i bezpieczne modele. W procesie zwanym RLHF (Reinforcement Learning from Human Feedback – uczenie ze wzmocnieniem na podstawie ludzkich opinii) model generuje tysiące odpowiedzi, a człowiek musi ocenić, która jest lepsza, bardziej poprawna i bezpieczniejsza. Aby ChatGPT wiedział, że nie powinien generować rasistowskich obelg, instruktaży morderstw czy pornografii dziecięcej, musi najpierw zostać na nich „wytrenowany”, a następnie poinstruowany, by tego unikać.
Skąd wziąć ludzi do tej gigantycznej, mrówczej pracy? Dolina Krzemowa nie zatrudnia do tego inżynierów z Palo Alto zarabiających setki tysięcy dolarów rocznie. Jak obnażyło głośne śledztwo magazynu „TIME” w 2023 roku, korporacje zlecają te zadania podwykonawcom w Kenii, na Filipinach, w Ugandzie czy w Indiach.
W dusznych biurach w Nairobi czy Manili tysiące młodych ludzi spędza po 9 godzin dziennie przed ekranami, czytając i tagując najbardziej makabryczne dno internetu: opisy morderstw, tortur, samobójstw, pedofilii i skrajnej nienawiści. Ich zadanie polega na etykietowaniu tych treści, by amerykański algorytm „zrozumiał”, że to jest kategoria zakazana. Stawka za tę pracę? Często nie przekracza dwóch dolarów za godzinę. To oni są naszymi cyfrowymi sprzątaczami. Odwalają najczarniejszą, najbardziej toksyczną robotę, żebyśmy w Europie i USA mogli odbywać z AI kulturalne rozmowy o filozofii Kanta albo generować zabawne wierszyki na urodziny szefa.
Trauma jako koszt operacyjny biznesu
Kiedy zachwycamy się nieprawdopodobną marżą i wyceną spółek technologicznych operujących na rynku sztucznej inteligencji, ignorujemy to, co ekonomiści nazywają „eksternalizacją kosztów”. Podobnie jak fabryki chemiczne zrzucają zanieczyszczenia do lokalnych rzek, oszczędzając na utylizacji, tak firmy z branży AI zrzucają psychologiczne koszty rozwoju technologii na kraje rozwijające się.
Algorytm, który filtruje przemoc, nie odczuwa traumy. Nie budzi się w nocy z krzykiem, nie cierpi na zespół stresu pourazowego (PTSD). Złożoność matematyczna modelu odporna jest na okrucieństwo. Ale młodzi ludzie z Kenii czy Wenezueli, którzy dla zachodnich korporacji przerzucają dziennie tysiące drastycznych obrazów i tekstów, płacą za to zdrowiem psychicznym, bez dostępu do odpowiedniej opieki terapeutycznej, której zachodnie standardy pracy by od nich wymagały. To oni amortyzują szok, który zabiłby wizerunek „bezpiecznej” sztucznej inteligencji.
Kiedy słyszymy z ust prezesów tech-gigantów narrację o tym, że „AI uratuje ludzkość i zdemokratyzuje wiedzę”, musimy pamiętać, że ta cyfrowa ewangelia jest pisana na grzbietach wyzyskiwanych prekariuszy. To nie jest innowacja technologiczna, to po prostu ostateczna forma optymalizacji arbitrażu płacowego. Płacimy centy za to, by ktoś inny, niewidzialny i pozbawiony praw pracowniczych, uczył maszynę empatii, której korporacja sama nie posiada.
Neokolonializm i wydobycie inteligencji
Wybitna badaczka Kate Crawford w swojej książce „Atlas sztucznej inteligencji” stawia tezę, która powinna raz na zawsze zrewidować nasz sposób myślenia o tej technologii: sztuczna inteligencja nie jest bytem niematerialnym; jest przemysłem wydobywczym. Wymaga ogromnych ilości wody do chłodzenia serwerów, rzadkich minerałów wydobywanych w nieludzkich warunkach w Kongu do budowy procesorów, gigantycznych zasobów energetycznych i, co najważniejsze, potężnych pokładów taniej, ludzkiej pracy poznawczej.
To powtórka z klasycznego, kolonialnego modelu gospodarczego. Globalna Północ wydobywa surowy materiał (nasze dane) z całego świata. Następnie zleca jego obróbkę i oczyszczanie najtańszym robotnikom na Globalnym Południu. A na koniec pakuje czysty, lśniący, gotowy produkt i sprzedaje go z powrotem na rynkach zachodnich w modelu abonamentowym, inkasując gigantyczne zyski.
Z tej perspektywy termin „sztuczna inteligencja” staje się semantycznym oszustwem. W tych modelach nie ma absolutnie nic sztucznego. Są one w stu procentach oparte na zrekombinowanej ludzkiej wiedzy, ludzkiej sztuce i, co najbardziej bolesne, ludzkiej, fizycznej i psychicznej harówce.
Pęknięcie lśniącego lustra
Żyjemy w epoce, w której fetyszyzujemy bezszwowość interfejsów (seamless experience). Chcemy, by wszystko działało natychmiast, bez tarcia, bez widocznego wysiłku. Paradoks polega na tym, że im gładszy i bardziej „magiczny” wydaje się interfejs z perspektywy użytkownika końcowego, tym więcej ludzkiej, fizycznej pracy musiano ukryć na jego zapleczu.
Musimy jako społeczeństwo przestać zachwycać się iluzją Mechanicznego Turka, a zacząć zadawać trudne pytania o warunki, w jakich pracuje człowiek ukryty w skrzyni pod szachownicą. Opowieść o przyszłości to już nie wizja, w której myślące, krzemowe umysły zastepują człowieka we wszystkich dziedzinach życia. Prawdziwa i najbardziej dystopijna wersja przyszłości to taka, w której algorytmy stają się doskonałą, lśniącą kurtyną, służącą wyłącznie do zasłaniania tych mas, które za grosze wykonują pracę niewartą zachodu programistów z Doliny Krzemowej.
Zanim więc po raz kolejny, tknięci odruchem ludzkiej empatii, napiszemy w oknie chata „dziękuję”, myśląc o naszej wirtualnej asystentce, warto uświadomić sobie, do kogo tak naprawdę kierujemy te słowa. Dziękujemy maszynie za ciężką pracę ludzi, o których istnieniu technologia pozwoliła nam bardzo wygodnie zapomnieć.


