Richard Mathenge budzi się zlany zimnym potem. To ten sam koszmar – obrazy, których nie może wymazać z pamięci. Przez dziewięć godzin dziennie, pięć dni w tygodniu, czytał opisy przemocy seksualnej, samobójstw i tortur. Wszystko po to, by ChatGPT nauczył się, czego nie powinien mówić użytkownikom.
Jest godzina 3:47 w Nairobi. Mathenge wie, że już nie zaśnie. Kiedyś był dumny ze swojej pracy – pomagał tworzyć przyszłość. Dziś jest jednym z setek pracowników, których zdrowie psychiczne było ceną za “bezpieczną” sztuczną inteligencję.
Rozdział 1: Praca marzeń, która okazała się koszmarem
Richard Mathenge rozpoczął pracę w firmie Sama w 2021 roku jako lider zespołu. Sama, amerykańska firma z siedzibą w San Francisco, przedstawiała się jako “etyczna firma SI” i twierdziła, że pomogła 59 000 osób wyjść z ubóstwa.
W czasie pandemii COVID-19, gdy kenijska gospodarka była w kryzysie, praca w branży technologicznej wydawała się wybawieniem. Mathenge, 37-letni ojciec, był wdzięczny za stabilne zatrudnienie.
Pierwsze tygodnie były obiecujące. Nowoczesne biuro w Nairobi, laptopy, klimatyzacja. Tydzień szkolenia obejmował podstawy klasyfikacji treści – wulgaryzmy, niewłaściwe żarty, lekką przemoc. Nikt nie wspomniał, co naprawdę będą musieli czytać.
Rozdział 2: 700 koszmarów dziennie
Mophat Okinyi, członek zespołu Mathenge, przeglądał do 700 fragmentów tekstu dziennie. Były to opisy dziecięcej pornografii, instrukcje samobójstw, fantazje o masowych morderstwach, opisy tortur.
W wywiadzie dla Guardian w 2023 roku Okinyi powiedział: “Czytałem fragmenty opisujące rodziców gwałcących swoje dzieci i dzieci uprawiające seks ze zwierzętami.”
Mathenge jako lider zespołu obserwował deteriorację psychiczną swoich pracowników: “Mogłem rozpoznać, kiedy mój zespół nie radzi sobie dobrze, kiedy nie są zainteresowani przychodzeniem do pracy. Mój zespół wysyłał sygnały, że nie są gotowi angażować się w takie teksty.”
Norma wynosiła minimum 200 tekstów dziennie. Niewyrabianie normy oznaczało zwolnienie.
Rozdział 3: Rzeczywiste zarobki
OpenAI utrzymywało, że płaci firmie Sama 12,50 dolara za godzinę pracy każdego moderatora. Mathenge ujawnił magazynowi Time, że pracownicy otrzymywali około 1 dolara za godzinę, czasem mniej.
Śledztwo Time z stycznia 2023 roku potwierdziło, że kenijscy moderatorzy zarabiali między 1,32 a 2 dolary za godzinę. Dla porównania – w USA podobna praca (choć mniej traumatyczna) jest płatna 15-25 dolarów za godzinę.
Rozdział 4: Zniszczone życie Mophata Okinyi
Mophat Okinyi zapłacił najwyższą cenę. W wywiadach opisywał bezsenność, ataki paniki, depresję. Jego żona obserwowała, jak się zmienia – stał się wycofany, paranoiczny, unikał ludzi.
“Jakkolwiek dobrze się czuję widząc, że ChatGPT staje się sławny i jest używany przez wielu ludzi na całym świecie, uczynienie go bezpiecznym zniszczyło moją rodzinę. Zniszczyło moje zdrowie psychiczne. Kiedy rozmawiamy, wciąż zmagam się z traumą” – powiedział Okinyi dziennikarzom.
Jego małżeństwo rozpadło się. Żona odeszła, nie mogąc znieść jego stanów lękowych i koszmarów.
Rozdział 5: Fikcyjna pomoc psychologiczna
Sama obiecywała wsparcie psychologiczne. W praktyce wyglądało to tak: raz w tygodniu przychodził terapeuta, który prowadził 45-minutowe sesje grupowe dla 20 osób.
Mathenge wspominał: “W pewnym momencie terapeuta się zgłosił, ale można było powiedzieć, że nie był profesjonalistą. Nie był wykwalifikowany, przykro mi to mówić.”
Porady ograniczały się do “oddychajcie głęboko” i “idźcie na spacer” – bezużyteczne dla ludzi borykających się z traumą po czytaniu opisów dziecięcej pornografii.
Rozdział 6: Globalna skala problemu
W grudniu 2024 roku dr Ian Kanyanya, szef psychiatrii w Narodowym Szpitalu Kenyatta w Nairobi, zdiagnozował PTSD u ponad 140 kenijskich moderatorów treści. Przedstawił te diagnozy w sądzie jako dowód w sprawie przeciwko Meta.
Martha Dark z organizacji Foxglove powiedziała: “Moderowanie Facebooka to niebezpieczna, nawet śmiertelna praca, która powoduje dożywotne PTSD u prawie wszystkich, którzy ją wykonują. W Kenii traumatyzowała 100% z setek byłych moderatorów testowanych na PTSD.”
Botlhokwa Ranta, była moderatorka z RPA pracująca w Nairobi, określiła siebie i kolegów jako “dozorców internetu”. “Sprzątaliśmy bałagan, żeby wszyscy inni mogli cieszyć się oczyszczonym światem online” – powiedziała w 2024 roku.
Rozdział 7: Nagłe zwolnienia
W marcu 2022 roku Sama niespodziewanie zakończyła kontrakt z OpenAI, osiem miesięcy przed terminem. Firma twierdziła, że chce się “skupić na podstawowej kompetencji w rozwiązaniach adnotacji wizji komputerowej”.
Decyzja zbiegła się z publikacją śledztwa Time ujawniającego warunki pracy. Dla pracowników był to cios – stracili pracę bez wypowiedzenia, bez odszkodowania, bez kontynuacji terapii.
Alex Kairu, 28-letni były moderator, został natychmiast przeniesiony do oznaczania zdjęć samochodów, ale jego stan psychiczny już się nie poprawił. “Żałuję, że nikt nie zapytał: Co przeżywasz? Z czym się zmagasz?” – powiedział Guardian.
Rozdział 8: Daniel Motaung i powstanie związku
Daniel Motaung, były moderator Facebooka z RPA, stał się symbolem walki. Sam cierpiący na PTSD po ekspozycji na treści o ścięciach głów i wykorzystywaniu dzieci, w 2022 roku pozwał Meta i Sama.
W maju 2023 roku pomógł założyć Afrykański Związek Moderatorów Treści – pierwszy taki na kontynencie. Do 2024 roku związek liczył około 400 członków z Kenii, Nigerii, Ghany, Ugandy, Etiopii i RPA.
“Związek ma walczyć przeciwko wyzyskowi pracowników w Afryce przez duże firmy technologiczne, szczególnie w zakresie ich zdrowia psychicznego i płac” – powiedział Motaung.
Rozdział 9: Przełom prawny
We wrześniu 2024 roku Sąd Apelacyjny w Nairobi wydał historyczne orzeczenie – 185 byłych moderatorów może pozwać Meta mimo argumentów firmy, że kenijskie sądy nie mają jurysdykcji nad amerykańską korporacją.
Jeden z dokumentów medycznych przedstawionych sądowi opisywał moderatora, który budził się w zimnych potach od koszmarów związanych z treściami, które przeglądał. Doświadczał częstych załamań, żywych wspomnień i paranoi.
Rozdział 10: Inne kraje, ten sam problem
W Turcji w 2024 roku setki moderatorów TikToka próbowało utworzyć związek. Hasan Hüseyin Yavuz został zwolniony za próbę organizowania pracowników. Opisywał oglądanie filmów z kazirodztwa i ekstremalnej przemocy, które dawały mu koszmary.
Firma Telus Digital, gdy tylko związek został zatwierdzony, zmieniła swoją klasyfikację branżową z “komunikacji” na “pracę biurową”, co skutecznie zablokowało związek.
Rozdział 11: Wizyta prezydenta
W 2024 roku prezydent Kenii William Ruto odwiedził biuro Sama w Nairobi. Wymienił uprzejmości z kierownictwem, mówił o budowaniu “wschodnioafrykańskiej gospodarki cyfrowej”.
Od objęcia urzędu w 2022 roku Ruto aktywnie zabiega o inwestycje technologiczne. Podróżował do Doliny Krzemowej na spotkania z Apple, Intelem i innymi gigantami.
Krytycy wskazują, że prezydent ignoruje los kenijskich pracowników, przedkładając przyciąganie zagranicznych inwestycji nad godne warunki pracy.
Rozdział 12: Mechanizm eksploatacji
System działa według prostego schematu: amerykańskie firmy technologiczne płacą firmom outsourcingowym. Te zatrudniają pracowników w krajach rozwijających się za ułamek amerykańskich stawek. Gdy pracownicy protestują, kontrakty są anulowane, nowe firmy przejmują zadania oferując jeszcze niższe płace.
W 2023 roku 260 moderatorów w centrum Sama w Nairobi zostało zwolnionych po tym, jak podnieśli kwestie warunków pracy. Komunikat był jasny – kto się skarży, traci pracę.
Rozdział 13: Richard Mathenge – człowiek roku TIME
W 2024 roku magazyn Time uznał Richarda Mathenge za jedną ze 100 najbardziej wpływowych osób w dziedzinie SI. Nie za tworzenie technologii, ale za ujawnienie jej ludzkiego kosztu i organizowanie ruchu pracowniczego.
Mathenge kontynuuje walkę o uznanie ekspozycji na szkodliwe treści jako zagrożenia zawodowego. Organizuje spotkania, zbiera świadectwa, współpracuje z prawnikami.
Wielu pracowników boi się jawnego członkostwa w związku. “W Afryce jest niewiele miejsc pracy, a wielu jest żywicielami rodzin. Jeśli stracą tę pracę, trudno znaleźć inną” – wyjaśnia Mathenge.
Rozdział 14: Ci, którzy odeszli
Frances Walter z Kenii pracowała jako moderatorka przez dwa lata. Dziś nie może znaleźć pracy – pracodawcy widzą w CV firmę Sama i wiedzą, co to oznacza. Jest naznaczona.
James (nazwisko zastrzeżone) z Ugandy wrócił do kraju po roku w Nairobi. Nie może patrzeć na swoje dzieci bez przypominania sobie tekstów, które czytał. Jego małżeństwo jest w kryzysie.
Sarah z Ghany próbowała popełnić samobójstwo sześć miesięcy po zakończeniu pracy. Przeżyła, ale walczy z depresją. Nie ma pieniędzy na terapię.
Rozdział 15: Nowe modele, stare metody
GPT-4, Claude, Gemini, Llama – każdy nowy model SI przechodzi proces “oczyszczania”. Za każdym stoją setki niewidocznych pracowników w Kenii, na Filipinach, w Wenezueli.
Firmy technologiczne obiecują, że wkrótce SI będzie mogła sama moderować treści. Na razie to mrzonka. Potrzeba ludzi, by uczyć maszynę, co jest dopuszczalne.
Epilog: Niewypowiedziana prawda
Każde zapytanie do ChatGPT, każda odmowa generowania szkodliwych treści, każde ostrzeżenie – to echo czyjejś traumy. Ktoś w Nairobi, Manili czy Delhi zapłacił za to zdrowiem psychicznym.
Richard Mathenge nadal mieszka w tym samym małym mieszkaniu w Nairobi. Czasem włącza ChatGPT i zadaje proste pytania. System odpowiada uprzejmie, odmawia generowania przemocy, chroni użytkowników.
“To działa” – myśli Mathenge. “Nasza praca nie była na darmo.”
Ale potem przychodzi noc i koszmary wracają. Obrazy, których nie może zapomnieć. Cena, którą płaci do dziś.
Mophat Okinyi próbuje odbudować życie. Samotny, z zaburzeniami psychicznymi, bez perspektyw. Czasem myśli o samobójstwie – ironiczne, biorąc pod uwagę, ile tekstów o samobójstwach musiał przeczytać dla ChatGPT.
Daniel Motaung kontynuuje batalię prawną. Wie, że wygrana nie przywróci zdrowia psychicznego setek poszkodowanych, ale może zapobiec kolejnym tragediom.
To jest rzeczywista historia rewolucji SI. Nie ta opowiadana na konferencjach w Dolinie Krzemowej, ale ta przeżywana w małych mieszkaniach Nairobi. Historia młodych ludzi, którzy chcieli tylko godnej pracy i zostali psychicznie zniszczeni w imię postępu technologicznego.
ChatGPT jest bezpieczny. Ale ci, którzy go bezpiecznym uczynili, już nigdy nie będą.
Źródła:
- Oficjalne oświadczenia Sama i OpenAI (2022-2023)
- Time Magazine: “Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour” (styczeń 2023) – śledztwo Billy’ego Perrigo
- The Guardian: “It’s destroyed me completely: Kenyan moderators decry toll of training of AI models” (2023) – wywiady z Mathenge i Okinyi
- CNN Business: “Facebook inflicted lifelong trauma on content moderators in Kenya” (grudzień 2024) – raporty medyczne dr. Iana Kanyanya
- The Guardian: wywiad z Richardem Mathenge i Mophatem Okinyi (2023)
- Dokumenty sądowe: Motaung przeciwko Meta i Sama, Sąd w Nairobi (2022-2024)
- Rest of World: “TikTok moderators in Turkey” (czerwiec 2025)
- NOEMA Magazine: “The Human Cost Of Our AI-Driven Future” (wrzesień 2024) – wywiad z Botlhokwą Ranta
- Foxglove: oficjalne oświadczenia Marthy Dark (2024)
- Time 100 Most Influential People in AI (2024) – profil Richarda MathengeBureau of Investigative Journalism: raporty o globalnej branży moderacji (2024)
