Wikipedia traci odwiedzających przez sztuczną inteligencję. Wolontariusze biją na alarm

Spadek ruchu na Wikipedii to efekt rewolucji AI w wyszukiwarkach i zmiany nawyków młodszych pokoleń.
#image_title

Wikipedia, uważana za jedną z ostatnich oaz wartościowej treści w internecie zdominowanym przez toksyczne media społecznościowe i treści generowane przez AI, zmaga się z poważnym problemem. Fundacja Wikimedia oficjalnie potwierdziła, że liczba odwiedzin ze strony rzeczywistych użytkowników spadła o 8% rok do roku. To niepokojący sygnał dla największej wolnej encyklopedii świata.

Boty maskowały prawdziwy problem

Marshall Miller z Fundacji Wikimedia w swoim najnowszym wpisie na blogu ujawnił, że rzeczywisty spadek ruchu był przez miesiące maskowany przez aktywność botów. Dopiero po aktualizacji systemów wykrywania automatycznego ruchu wyszło na jaw, że niezwykle wysoki ruch w maju i czerwcu pochodził głównie od zaawansowanych botów zaprojektowanych specjalnie w celu ominięcia systemów bezpieczeństwa.

Po oddzieleniu ruchu generowanego przez boty od prawdziwych użytkowników, obraz stał się jasny – realne odsłony stron Wikipedii spadają systematycznie od kilku miesięcy. To pierwszy tak wyraźny sygnał, że nawet tak uznana platforma jak Wikipedia nie jest odporna na tektoniczne zmiany zachodzące w sposobie, w jaki ludzie konsumują informacje online.

Sztuczna inteligencja zmienia zasady gry

Głównym winowajcą spadku ruchu na Wikipedii jest rewolucja sztucznej inteligencji w wyszukiwarkach internetowych. Google, Microsoft Bing i inne platformy coraz częściej wykorzystują generatywną AI do dostarczania odpowiedzi bezpośrednio w wynikach wyszukiwania, zamiast kierować użytkowników na strony źródłowe.

Mechanizm jest prosty, ale brutalny w skutkach: użytkownik wpisuje pytanie, AI podsumowuje informacje z Wikipedii i innych źródeł, wyświetla gotową odpowiedź, a użytkownik w ogóle nie musi odwiedzać oryginalnej strony. Problem? Wikipedia nie dostaje ruchu, nie generuje zaangażowania, a użytkownicy często nie są nawet świadomi, że informacja pochodzi z największej wolnej encyklopedii świata.

Warto zaznaczyć, że Google oficjalnie zaprzeczył, jakoby podsumowania AI zmniejszały ruch z wyszukiwarek. Jednak dane Fundacji Wikimedia mówią co innego – spadek jest realny i wymierny.

Młode pokolenie szuka wiedzy na TikToku

Drugim kluczowym czynnikiem wpływającym na spadek ruchu jest fundamentalna zmiana w zachowaniach młodszych pokoleń. Generacja Z i Alpha coraz częściej szukają informacji nie w tradycyjnych wyszukiwarkach czy na stronach internetowych, ale na platformach wideo społecznościowego – TikToku, YouTube Shorts, Instagram Reels.

Ten trend jest szczególnie widoczny w obszarze edukacji i pozyskiwania informacji. Młodzi użytkownicy wolą obejrzeć 60-sekundowy filmik wyjaśniający złożone zagadnienie niż czytać artykuł encyklopedyczny. To pokoleniowa zmiana paradygmatu, która stawia pod znakiem zapytania przyszłość platform opartych na tekście, nawet tak renomowanych jak Wikipedia.

Paradoks niewidzialnej wartości

Miller w swoim wpisie podkreśla jeden z najbardziej niepokojących aspektów obecnej sytuacji – paradoks niewidzialnej wartości. Wikipedia pozostaje fundamentalnym źródłem wiedzy dla systemów AI, wyszukiwarek i twórców treści w mediach społecznościowych. Treści encyklopedii są wykorzystywane miliardy razy dziennie, ale ich pochodzenie pozostaje dla większości użytkowników niewidoczne.

“Wiedza pochodząca z Wikipedii wciąż dociera do ludzi, nawet jeśli nie odwiedzają oni naszej strony” – argumentuje Miller. Jednak ta niewidzialność niesie ze sobą poważne zagrożenia dla długoterminowej przyszłości projektu.

Groźba zapaści ekosystemu wolontariuszy

Kluczowym problemem jest potencjalny efekt domina. Wikipedia działa dzięki społeczności wolontariuszy – są to tysiące osób na całym świecie, które bezinteresownie tworzą, aktualizują i weryfikują treści. Ten unikalny model wymaga jednak ciągłego napływu nowych wolontariuszy i zaangażowania istniejących.

Jeśli ludzie przestają odwiedzać Wikipedię, maleje prawdopodobieństwo, że staną się aktywnymi edytorami. Jeśli nie widzą bezpośrednio wartości projektu, mniej prawdopodobne staje się, że wesprą go finansowo jako indywidualni darczyńcy. Wikipedia nie wyświetla reklam i funkcjonuje wyłącznie dzięki dobrowolnym wpłatom.

Miller ostrzega wprost: “Przy mniejszej liczbie odwiedzin Wikipedii, mniej wolontariuszy może rozwijać i wzbogacać treści, a mniej indywidualnych darczyńców może wspierać tę pracę.” To błędne koło może doprowadzić do stopniowej erozji jakości i aktualności treści, co w dłuższej perspektywie zagraża samej istniejącej platformy.

Warto dodać, że niektórzy z tych wolontariuszy to naprawdę niezwykli ludzie – według doniesień New York Times, podczas konferencji edytorów Wikipedii w piątek jeden z uczestników rozbroił uzbrojonym napastnika, co pokazuje poziom zaangażowania i odwagi tej społeczności.

Własne eksperymenty AI zakończone porażką

Ironicznie, Wikipedia sama eksperymentowała z wykorzystaniem sztucznej inteligencji do generowania podsumowań artykułów. Projekt miał na celu ułatwienie dostępu do wiedzy poprzez krótkie, automatycznie generowane streszczenia na początku artykułów.

Jednak inicjatywa spotkała się z gwałtownym sprzeciwem społeczności edytorów. W czerwcu 2025 roku Wikipedia była zmuszona wstrzymać program pilotażowy AI po licznych protestach. Edytorzy argumentowali, że automatyczne podsumowania mogą prowadzić do uproszczeń, błędów i utraty niuansów, które są kluczowe dla jakości encyklopedycznej treści.

To pokazuje głęboką ironię obecnej sytuacji – Wikipedia sama nie może skutecznie wykorzystać AI do rozwoju, ale zewnętrzne platformy swobodnie czerpią z jej treści, nie przynosząc korzyści samej encyklopedii.

Apel o odpowiedzialność gigantów technologicznych

Marshall Miller nie pozostawia wątpliwości co do tego, kto powinien ponieść odpowiedzialność za obecną sytuację. Firmy technologiczne wykorzystujące treści z Wikipedii – Google, Microsoft, OpenAI, Anthropic i inne – muszą zacząć “zachęcać więcej odwiedzających” do bezpośredniego korzystania z samej platformy.

To nie jest tylko kwestia uczciwości, ale długoterminowego interesu całego ekosystemu informacyjnego. Jeśli Wikipedia upadnie lub podupadnie z powodu braku wsparcia, ucierpi cała infrastruktura wiedzy, na której opierają się współczesne systemy AI i wyszukiwarek.

Fundacja Wikimedia wzywa giganty technologicznych do wprowadzenia mechanizmów, które będą jasno wskazywać źródło informacji i aktywnie kierować użytkowników do oryginalnych źródeł. To mogą być wyraźne linki, przyciski “czytaj więcej na Wikipedii” czy inne rozwiązania zwiększające widoczność platformy.

Co robi Wikipedia, by przetrwać?

Fundacja Wikimedia nie pozostaje bierna w obliczu wyzwań. Organizacja podejmuje szereg działań mających na celu adaptację do nowej rzeczywistości:

Nowy framework atrybucji treści – Wikipedia rozwija system, który ma zapewnić lepszą identyfikowalność i atrybucję treści pochodzących z encyklopedii, nawet gdy są one wykorzystywane przez zewnętrzne platformy.

Dedykowane zespoły ekspansji – Dwa zespoły w ramach Fundacji pracują nad dotarciem do nowych czytelników i pozyskaniem kolejnych pokoleń użytkowników. To próba przełamania bariery pokoleniowej i dotarcia do młodszych odbiorców.

Rekrutacja wolontariuszy – Wikipedia aktywnie szuka nowych wolontariuszy, którzy pomogą w tworzeniu i aktualizacji treści. To kluczowe dla utrzymania jakości i świeżości encyklopedii.

Edukacja społeczna – Fundacja intensyfikuje działania edukacyjne, starając się zwiększyć świadomość użytkowników internetu o znaczeniu weryfikacji źródeł i wspierania rzetelnej, kuratorowanej przez ludzi wiedzy.

Apel do użytkowników internetu

Miller kieruje również bezpośredni apel do wszystkich użytkowników internetu, niezależnie od tego, czy są edytorami Wikipedii czy nie. “Wspierajmy integralność treści i tworzenie wartościowych materiałów” – pisze w poście na blogu.

Konkretne działania, które każdy może podjąć:

  • Szukaj cytowań – Zawsze sprawdzaj, skąd pochodzi informacja, którą widzisz w wynikach wyszukiwania czy podsumowaniach AI.
  • Klikaj w źródła – Kiedy AI lub wyszukiwarka dostarcza odpowiedź, kliknij w link do oryginalnego źródła i przeczytaj pełny materiał.
  • Rozmawiaj o znaczeniu weryfikowanych źródeł – Edukcja bliskich i znajomych o znaczeniu zaufanych, kuratorowanych przez ludzi źródeł wiedzy.
  • Pamiętaj o twórcach – Treści wykorzystywane przez AI zostały stworzone przez prawdziwych ludzi, którzy zasługują na wsparcie i uznanie.
  • Wspieraj finansowo – Jeśli korzystasz z Wikipedii, rozważ symboliczną wpłatę na jej funkcjonowanie.

Szerszy kontekst: AI i przyszłość otwartej sieci

Sytuacja Wikipedii jest symptomem znacznie szerszego problemu dotyczącego przyszłości otwartej sieci internetowej. Od lat obserwujemy zjawisko “zerowych kliknięć” w Google – coraz więcej zapytań kończy się bezpośrednio na stronie wyników wyszukiwania, bez przekierowania do zewnętrznych stron.

Generatywna AI potęguje ten trend. Systemy takie jak ChatGPT, Claude, Google Gemini czy Microsoft Copilot agregują wiedzę z tysięcy źródeł i prezentują ją jako spójną odpowiedź, często bez wyraźnego wskazania pochodzenia informacji. To tworzy asymetrię: platformy AI czerpią ogromną wartość z treści tworzonych przez ludzi, ale twórcy tych treści nie otrzymują ani ruchu, ani rozpoznawalności, ani wsparcia finansowego.

Dylemat etyczny ery AI

Wikipedia stoi przed fundamentalnym dylematem etycznym ery sztucznej inteligencji. Z jednej strony, demokratyzacja dostępu do wiedzy poprzez AI to pozytywny rozwój – więcej ludzi może łatwiej i szybciej uzyskać informacje. Z drugiej strony, jeśli ten proces podważa fundamenty, na których opiera się tworzenie tej wiedzy, może to prowadzić do samozniszczenia całego ekosystemu.

To klasyczny przykład tragedii dóbr wspólnych w cyfrowej erze. Wikipedia jest dobrem wspólnym – ogólnodostępnym, wartościowym zasobem tworzonym zbiorowo. Jednak gdy wszyscy korzystają z tego zasobu bez przyczyniania się do jego utrzymania (poprzez edycję, wpłaty czy chociażby bezpośrednie odwiedziny), zasób ten może ulec degradacji.

Co dalej z wolną encyklopedią?

Przyszłość Wikipedii pozostaje niepewna, ale nie beznadziejna. Platforma ma ogromne mocne strony: uznaną markę, społeczność zaangażowanych wolontariuszy, dziesiątki milionów artykułów w setkach języków i ugruntowaną pozycję jako najbardziej wiarygodne źródło informacji w internecie.

Kluczem do przetrwania będzie adaptacja do nowej rzeczywistości bez rezygnacji z fundamentalnych wartości. Wikipedia musi znaleźć sposób, by pozostać relevantną dla młodszych pokoleń, zachowując jednocześnie swój model oparty na wolontariacie i braku reklam.

Możliwe są różne scenariusze:

Symbioza z AI – Wikipedia może stać się oficjalnym, wyróżnionym partnerem głównych platform AI, z gwarantowaną widoczną atrybucją i mechanizmami kierującymi użytkowników do źródła.

Nowe formaty treści – Encyklopedia może eksperymentować z nowymi formatami – krótkimi wideo, interaktywnymi infografikami, podcastami – zachowując przy tym swoją kuratorską misję.

Modele finansowania – Może pojawić się potrzeba nowych modeli finansowania, wykraczających poza dobrowolne datki, choć każdy taki model musi być zgodny z misją niekomercyjności platformy.

Lekcja dla całego internetu

Historia Wikipedii to ostrzeżenie dla całego otwartego internetu. Pokazuje, że nawet najbardziej uznane, najcenniejsze i pozornie niewzruszone platformy mogą stać się ofiarami fundamentalnych zmian technologicznych.

Jeśli nie znajdziemy sposobu na zrównoważony rozwój w erze AI – takiego, który szanuje i wspiera twórców oryginalnych treści – możemy świadkować stopniowej erozji infrastruktury wiedzy, która zajęła dekady do zbudowania.

Spadek ruchu na Wikipedii o 8% może wydawać się niewielki, ale w kontekście długoterminowych trendów i potencjalnego efektu kuli śnieżnej to sygnał alarmowy, którego nie można ignorować. Pytanie brzmi: czy branża technologiczna i społeczność internetowa zareagują, zanim będzie za późno?

Podsumowanie

Wikipedia, ikona wolnego internetu, zmaga się z pierwszym poważnym kryzysem ruchu w swojej historii. Spadek odwiedzin o 8% rok do roku jest bezpośrednim skutkiem rewolucji AI w wyszukiwarkach i zmiany nawyków młodszych pokoleń preferujących wideo społecznościowe.

Problem jest głębszy niż tylko liczby – chodzi o przyszłość modelu opartego na wolontariacie i darowiznach, który przez dekady był fundamentem największej wolnej encyklopedii świata. Bez bezpośredniego kontaktu z platformą, użytkownicy tracą świadomość jej wartości i znaczenia, co grozi erozją bazy wolontariuszy i darczyńców.

Fundacja Wikimedia apeluje do gigantów technologicznych o odpowiedzialność i wprowadzenie mechanizmów wspierających źródła treści wykorzystywanych przez systemy AI. Jednocześnie sama podejmuje działania adaptacyjne, rozwijając nowe systemy atrybucji i poszukując sposobów dotarcia do młodszych pokoleń.

To nie jest tylko problem Wikipedii – to test dla całego ekosystemu otwartego internetu w erze sztucznej inteligencji. Od tego, jak poradzimy sobie z tym wyzwaniem, może zależeć przyszłość wolnej, dostępnej dla wszystkich wiedzy w sieci.

awatar autora
Piotr Olszewski
Previous Post

OpenAI zaskoczone reakcją na kwestie praw autorskich w aplikacji Sora

Next Post

Vermillio ujawnia prawdę: ile chronionych treści kradną narzędzia AI? Platforma śledzi każdy procent