Skip to content
Felietony

Syndrom „czarnej skrzynki”: Dlaczego nie wiemy, jak myślą AI i czemu powinno nas to martwić

4 min read

Wyobraź sobie, że masz w kuchni magiczne pudełko. Wkładasz do niego losowe składniki – mąkę, jajka, kakao, ale też musztardę i ogórki. Zawsze, bez wyjątku, po minucie z pudełka wyjeżdża idealny, przepyszny tort czekoladowy. Działa bezbłędnie. Jest tylko jeden problem: nie masz bladego pojęcia, jak on to robi. Nie możesz otworzyć pudełka, nie ma w nim żadnej instrukcji. Po prostu działa. Czy zaufałbyś mu na tyle, by serwować jego ciasta na weselu swojego dziecka? A co, jeśli pewnego dnia, zamiast tortu, wyprodukuje truciznę?

To uproszczona metafora, ale doskonale oddaje jeden z największych i najbardziej niepokojących problemów współczesnej sztucznej inteligencji: problem czarnej skrzynki (black box). Mamy coraz potężniejsze modele, które wykonują zadania na nadludzkim poziomie, ale często nawet ich twórcy nie są w stanie w pełni wyjaśnić, dlaczego algorytm podjął taką, a nie inną decyzję.


Co tak naprawdę dzieje się w głowie AI?

Sercem dzisiejszych zaawansowanych AI są głębokie sieci neuronowe, inspirowane budową ludzkiego mózgu. Składają się one z milionów, a nawet miliardów połączonych ze sobą „neuronów”, ułożonych w warstwy. Kiedy zadajemy modelowi pytanie, dane wejściowe przechodzą przez tę gęstą sieć, a każdy neuron modyfikuje je w minimalnym stopniu, przekazując dalej. Na końcu otrzymujemy odpowiedź.

Problem w tym, że w procesie „uczenia się” model sam dostosowuje siłę połączeń (tzw. „wag”) między tymi miliardami neuronów. Ostateczna logika jego działania nie jest zaprogramowana przez człowieka, ale wyłania się samoistnie z danych. Próba prześledzenia drogi pojedynczej decyzji przez tę plątaninę matematycznych zależności jest jak próba zrozumienia myśli człowieka poprzez monitorowanie aktywności każdego pojedynczego neuronu w jego mózgu. Jest to praktycznie niemożliwe.

„Brak wyjaśnialności jest często ceną za wysoką wydajność.” – Rich Caruana, Senior Principal Researcher w Microsoft Research

Innymi słowy, im potężniejszy i dokładniejszy staje się model, tym często trudniej jest nam zrozumieć jego wewnętrzną logikę. Stajemy przed wyborem: albo prostszy, bardziej zrozumiały model, który popełnia więcej błędów, albo niezwykle skuteczna czarna skrzynka. I coraz częściej wybieramy to drugie.


Dlaczego to problem? Przykłady, które dają do myślenia

Gdy AI poleca nam film na Netflixie, jej niezrozumiałość nie jest wielkim problemem. Ale gdy te same technologie zaczynają podejmować decyzje o naszym życiu, zdrowiu i finansach, stawka staje się dramatycznie wyższa.

  • Medycyna: Wyobraź sobie AI, która analizuje zdjęcie rentgenowskie i z 99% skutecznością diagnozuje raka. Ale zapytana, na jakiej podstawie postawiła diagnozę, nie potrafi odpowiedzieć. Czy lekarz powinien rozpocząć inwazyjne leczenie, opierając się na werdykcie, którego nie jest w stanie zweryfikować?
  • Finanse: Bank używa AI do oceny zdolności kredytowej. Twój wniosek zostaje odrzucony. Zgodnie z prawem (m.in. RODO), masz prawo do wyjaśnienia tej decyzji. Ale co, jeśli bank może ci tylko powiedzieć: „Nasz algorytm tak zdecydował”? To stwarza pole do ukrytej, niezamierzonej dyskryminacji.
  • Sądownictwo: W USA już używa się systemów AI do oceny ryzyka recydywy u osadzonych. Jeśli model jest czarną skrzynką, skąd możemy mieć pewność, że nie opiera swoich decyzji na ukrytych uprzedzeniach rasowych lub społecznych, które znalazł w danych historycznych?
  • Pojazdy autonomiczne: Samochód autonomiczny w sytuacji bez wyjścia musi podjąć decyzję, czy uderzyć w przeszkodę A, czy B. Jeśli dojdzie do tragedii, jak zbadać proces decyzyjny maszyny, by zapobiec podobnym wypadkom w przyszłości, skoro jej „rozumowanie” jest dla nas nieczytelne?

W poszukiwaniu latarki: Ruch Explainable AI (XAI)

Na szczęście, świat nauki jest świadomy tego zagrożenia. Cała, prężnie rozwijająca się dziedzina badań, znana jako Explainable AI (XAI), czyli Wyjaśnialna Sztuczna Inteligencja, jest poświęcona tworzeniu „latarek”, które pozwolą nam zajrzeć do wnętrza czarnych skrzynek.

Naukowcy pracują nad technikami, które potrafią wizualizować, na które części obrazu „patrzyła” sieć neuronowa, podejmując decyzję, lub które słowa w tekście miały dla niej największe znaczenie. Celem nie jest pełne zrozumienie każdego z miliardów parametrów, ale stworzenie wiarygodnych przybliżeń i uproszczonych modeli, które tłumaczą logikę tych bardziej skomplikowanych.

Podsumowanie: Nie możemy zarządzać czymś, czego nie rozumiemy

Problem czarnej skrzynki to jedno z największych wyzwań technologicznych i etycznych naszej dekady. W miarę jak delegujemy na AI coraz bardziej krytyczne decyzje, nasza zdolność do ich rozumienia, weryfikowania i pociągania do odpowiedzialności paradoksalnie maleje.

Ślepe zaufanie do werdyktów niezrozumiałych algorytmów to prosta droga do świata, w którym nasze życie jest kształtowane przez siły, których nie jesteśmy w stanie ani kontrolować, ani nawet zakwestionować. Zanim więc w pełni oddamy stery maszynom, upewnijmy się, że zostawiliśmy sobie chociaż włącznik awaryjny i instrukcję obsługi.

Piotr Olszewski

ADMINISTRATOR

Entuzjasta technologii, od 5 lat śledzi rozwój sztucznej inteligencji. Specjalizuje się w modelach językowych i Midjourney.