Anthropic wczoraj uruchomił Extended Thinking w Claude Sonnet 4.5 i nagle wszyscy zapomnieli, że jeszcze miesiąc temu nikt nie pytał o przejrzystość AI. Nowa funkcja działa prosto — model najpierw myśli (i pokazuje to użytkownikowi), a potem odpowiada. Brzmi jak szczegół, ale w praktyce to zmiana zasad gry dla każdego, kto używa AI do czegoś poważniejszego niż pisanie emaili.
Extended Thinking to nie kolejny marketingowy buzzword. To tryb, w którym Claude przed udzieleniem odpowiedzi pokazuje pełny proces rozumowania — krok po kroku, argument po argumencie. Widzisz jak AI przechodzi przez problem, jakie hipotezy odrzuca, gdzie się zawaha. I co najważniejsze — możesz złapać błąd zanim model go popełni.
Dokładność w górę, halucynacje w dół
Anthropic podał liczby: 23% wzrost dokładności w zadaniach matematycznych i logicznych. To nie jest kosmetyka. Jeśli używasz Claude do analizy danych, projektowania algorytmów czy sprawdzania obliczeń finansowych, różnica między 77% a 95% dokładności to różnica między narzędziem, któremu ufasz, a narzędziem, które musisz sprawdzać co drugą odpowiedź.
Zespół Anthropic napisał na blogu: «Extended Thinking pozwala Claude pokazać proces rozumowania, czyniąc decyzje AI bardziej przejrzystymi i wiarygodnymi». W tłumaczeniu na ludzki: w końcu możesz zobaczyć, dlaczego AI doszło do takiego, a nie innego wniosku. Nie musisz wierzyć na słowo — widzisz całą ścieżkę myślową.

Jak to działa w praktyce
Extended Thinking uruchamiasz zaznaczając opcję przed wysłaniem zapytania. Claude wtedy nie rzuca od razu odpowiedzią, tylko najpierw pokazuje sekcję „Thinking” — tam widzisz jak model analizuje problem. Czasem to kilka linijek, czasem kilka akapitów. Zależy od złożoności pytania.
Przykład: prosisz o rozwiązanie równania różniczkowego. Bez Extended Thinking dostajesz wynik i musisz wierzyć, że jest OK. Z Extended Thinking widzisz: „Rozpoznaję równanie liniowe pierwszego rzędu. Sprawdzam czy jest to forma standardowa. Stosuję metodę czynnika całkującego. Obliczam granice całkowania. Weryfikuję rozwiązanie przez podstawienie.” Każdy krok widoczny, każdy do sprawdzenia.
Protip ✅
Używaj Extended Thinking do zadań, gdzie liczy się poprawność, nie szybkość. Drafty emaili? Standardowy tryb wystarczy. Analiza finansowa? Włącz myślenie i oszczędź sobie godziny debugowania.
Tryb sprawdza się szczególnie w trzech scenariuszach. Pierwszy: matematyka i logika — tam gdzie jedno pomylone założenie psuje cały wynik. Drugi: analiza wieloetapowa — kiedy odpowiedź wymaga przejścia przez kilka poziomów rozumowania. Trzeci: weryfikacja cudzej pracy — kiedy Claude ma ocenić poprawność kodu, dokumentu czy dowodu.

Co to zmienia dla użytkowników
Największa zmiana? Możesz nauczyć się od AI. Widzisz nie tylko odpowiedź, ale metodę dojścia do niej. Dla programistów to game… przełom — debugujesz nie tylko kod, ale też sposób myślenia modelu. Dla analityków to szansa na wychwycenie błędnych założeń zanim trafią do raportu.
Anthropic nie ukrywa, że Extended Thinking to część szerszej strategii przejrzystości AI. Branża idzie w stronę „explainable AI” od lat, ale większość rozwiązań kończyła się na akademickich abstrakcjach. Tu dostajesz coś konkretnego — widzisz myśli modelu w czasie rzeczywistym, w języku zrozumiałym dla człowieka.
Uwaga ⚠️
Extended Thinking spowalnia odpowiedzi — model potrzebuje czasu na pokazanie procesu myślenia. Jeśli pracujesz pod presją czasu, standardowy tryb będzie szybszy.
Czy to czyni Claude nieomylnym? Nie. Ale czyni go sprawdzalnym. A to w świecie AI, gdzie halucynacje wciąż są normą, ma znaczenie.
Kto na tym zyskuje
Extended Thinking nie jest dla każdego. Jeśli używasz AI do prostych zadań — pisanie notatek, burza mózgów, wstępne researche — standardowy tryb wystarczy. Ale jeśli stawiasz na AI w pracy wymagającej precyzji, nowa funkcja to must-have.
Programiści dostają narzędzie do debugowania logiki algorytmów. Analitycy — sposób na weryfikację wieloetapowych obliczeń. Badacze — asystenta, który pokazuje gdzie popełnił błąd, zamiast udawać że ma rację. Studenci — nauczyciela, który tłumaczy metodę, nie tylko podaje wynik.
Anthropic nie podał jeszcze czy Extended Thinking trafi do wszystkich planów subskrypcyjnych, ani ile tokenów zużywa dłuższy proces myślenia. Ale 23% wzrost dokładności mówi samo za siebie — to nie kosmetyczny update, to nowy standard pracy z AI. I pierwszy krok w stronę modeli, którym możesz zaufać nie dlatego że są szybkie, ale dlatego że pokazują co robią.