Skip to content
Premium

DeepSeek V3 kosztuje grosze i bije OpenAI — Chiny właśnie wywróciły rynek AI

DeepSeek-V3 bije GPT-4o w benchmarkach kodowania i matematyki, kosztując 95% taniej. Chiński startup pokazał, że da się zbudować topowy model bez zasobów Big Tech.

5 min read
DeepSeek V3 kosztuje grosze i bije OpenAI — Chiny właśnie wywróciły rynek AI

26 marca 2026 roku chiński startup DeepSeek opublikował wyniki, które sprawiły, że w Silicon Valley zapanowało nerwowe milczenie. Model DeepSeek-V3 — dostępny publicznie od grudnia 2024, ale dopiero teraz szeroko testowany — w standardowych testach porównawczych kodowania (HumanEval) osiąga 88,5%, podczas gdy GPT-4o OpenAI zatrzymuje się na 86,6%. W zadaniach matematycznych (MATH-500) V3 zgarnia 90,2% wobec 74,6% u GPT-4. I robi to wszystko za cenę, która sprawia, że oferta OpenAI wygląda jak złodziejstwo w biały dzień.

DeepSeek pobiera 0,14 dolara za milion tokenów wejściowych i 0,28 dolara za milion wyjściowych. OpenAI za GPT-4o żąda 2,50 i 10 dolarów. Różnica? Mniej więcej 95%. To nie jest literówka. To jest moment, w którym chiński gracz mówi: „Hej, możemy lepiej i prawie za darmo”.

A teraz najlepsze: DeepSeek-V3 to model z 671 miliardami parametrów, z czego aktywnych jest tylko 37 miliardów (architektura Mixture-of-Experts). Koszt treningu? 5,576 miliona dolarów. OpenAI nie ujawnia kosztów GPT-4, ale szacunki mówią o setkach milionów. DeepSeek zrobił to taniej, szybciej i — jak pokazują testy — lepiej.

Testy porównawcze nie kłamią — V3 demoluje konkurencję

Przyjrzyjmy się liczom. W teście kodowania HumanEval (czy model potrafi napisać działający kod w Pythonie) DeepSeek-V3 osiąga 88,5%. To wynik lepszy niż GPT-4o (86,6%), Claude Sonnet 3.5 (88,0%) i Gemini 2.0 Flash (87,2%). W zadaniach matematycznych MATH-500 przewaga jest jeszcze większa: 90,2% wobec 74,6% u GPT-4o. W AIME 2024 (test dla olimpijczyków matematycznych) V3 rozwiązuje 39,2% problemów — GPT-4o ledwo 9,3%.

DeepSeek opublikował szczegółowy raport techniczny na arXiv 26 grudnia 2024 roku. 111 stron drobiazgowej dokumentacji. Zero marketingowego bełkotu. Same dane. Trening trwał 2,788 miliona godzin GPU na 2048 kartach H800 (wersja chipmów Nvidia ograniczona przez amerykańskie sankcje eksportowe). Całość zakończona w 2 miesiące. Koszt? Niecałe 6 milionów dolarów.

Benchmarki kodowania — V3 na prowadzeniu
Benchmarki kodowania — V3 na prowadzeniu

Model obsługuje kontekst do 128 tysięcy tokenów. To czterokrotnie mniej niż milion u najnowszych Claude’ów czy Gemini, ale w praktyce wystarczające dla 99% zastosowań. DeepSeek nie goni za rekordami kontekstu — goni za efektywnością.

Protip ✅

DeepSeek-V3 dostępny jest przez API na chat.deepseek.com za ~0,14$/milion tokenów. Jeśli testujesz narzędzia do kodowania lub automatyzacji — wrzuć V3 do porównania z GPT-4o. Różnica w kosztach przy dużej skali jest brutalna.

Jak Chiny ominęły sankcje i zbudowały bestię za grosze

Tu robi się naprawdę ciekawie. USA nałożyły na Chiny sankcje eksportowe na najwydajniejsze chipy Nvidia (H100, A100). DeepSeek dostał dostęp tylko do okrojonych H800 — wersji z ograniczoną przepustowością. I co zrobili? Zoptymalizowali algorytmy do granic możliwości.

Architektura Mixture-of-Experts (MoE) w V3 aktywuje tylko 37 miliardów z 671 miliardów parametrów na jedno zapytanie. To jak mieć 18 specjalistów, ale do każdego zadania wyciągać tylko dwóch najlepszych. Efekt? Model działa szybko i tanio, a jakość pozostaje topowa. DeepSeek zaimplementował Multi-head Latent Attention (MLA) — technikę kompresji uwagi, która radykalnie obcina zużycie pamięci.

Koszt treningu: 5,576 miliona dolarów. Dla porównania — GPT-4 kosztował prawdopodobnie setki milionów (OpenAI nie ujawnia liczb oficjalnie, ale przecieki mówią o 100+ milionach). DeepSeek nie tylko zrobił to taniej — zrobił to na sprzęcie, który miał być niewystarczający. To jak wygrać wyścig Formuły 1 na siedmioletnim Civic.

Mixture-of-Experts — mniej znaczy więcej
Mixture-of-Experts — mniej znaczy więcej

Silicon Valley w trybie paniki — a co z V5?

Reakcje z Doliny? Od zaskoczenia po otwarty sceptycyzm. Część ekspertów kwestionuje metodologię testów — DeepSeek publikuje wyniki własnych testów porównawczych, choć na standardowych zestawach jak HumanEval czy MATH. Inni wskazują, że model dostępny jest od grudnia 2024, więc „przełom” to raczej opóźniona weryfikacja niż nagła rewolucja.

Ale nikt nie kwestionuje jednego: DeepSeek pokazał, że da się zbudować konkurencyjny model bez zasobów Big Tech i bez dostępu do najlepszych chipów. To zmienia narrację. Przez lata dominowało przekonanie, że tylko Google, OpenAI, Anthropic czy Microsoft mają środki na topowe modele. DeepSeek udowodnił, że bariera wejścia jest niższa niż myślano.

I tu pojawia się plotka o DeepSeek-V5. Oficjalnych potwierdzeń zero, ale branża huczy o modelu z 1 bilionem parametrów (1000 miliardów). Jeśli V3 z 671 miliardami kosztował niecałe 6 milionów, ile będzie kosztować V5? I co ważniejsze — czy znowu pobije testy porównawcze OpenAI?

Uwaga ⚠️

DeepSeek-V3 działa świetnie w kodowaniu i matematyce, ale w zadaniach wymagających szerokiej wiedzy ogólnej (MMLU Pro) osiąga 75,9% wobec 78,3% u GPT-4o. Nie jest idealny wszędzie — dobieraj model do zadania.

Co to znaczy dla rynku — i dla twojego portfela

DeepSeek V3 zmienia ekonomię AI. Dotychczas koszt API był barierą dla mniejszych projektów. Milion tokenów za 10 dolarów (GPT-4o) to spore pieniądze dla startupów czy hobbystów. DeepSeek oferuje to samo za 28 centów. Nagle automatyzacja zadań, chatboty, analizy dużych zbiorów danych stają się dostępne dla każdego.

Dla OpenAI to nie jest dobra wiadomość. Jeśli chiński startup może dostarczyć konkurencyjną jakość za ułamek ceny, presja na obniżki będzie ogromna. OpenAI dopiero w grudniu 2024 obniżył ceny GPT-4o (wtedy z 5 i 15 dolarów na aktualne 2,50 i 10 dolarów). DeepSeek zmusza ich do kolejnej rundy.

Dla użytkowników? To bajka. Więcej opcji, niższe ceny, lepsza jakość. DeepSeek udowodnił, że monopol Big Tech nie jest nienaruszalny. A jeśli faktycznie pracują nad V5 — i jeśli znowu będzie lepszy i tańszy — to Silicon Valley ma problem.

Wyścig AI przyspiesza — nikt nie jest bezpieczny
Wyścig AI przyspiesza — nikt nie jest bezpieczny

Czy to rzeczywisty przełom, czy chiński marketing?

Sceptycy mają argumenty. DeepSeek publikuje wyniki własnych testów. Zewnętrzne laboratorium nie zweryfikowało ich niezależnie (przynajmniej publicznie). Testy porównawcze jak HumanEval czy MATH to złoty standard, ale każdy może je uruchomić — i każdy może wybrać te wyniki, które wyglądają najlepiej.

Z drugiej strony: model jest dostępny publicznie. Każdy może go przetestować przez API. Jeśli wyniki byłyby zmyślone, wyszłoby to w tydzień. DeepSeek ryzykuje reputację. A firma ma już historię — ich wcześniejsze modele (V2, Coder) też osiągały solidne wyniki.

Prawda pewnie leży pośrodku. DeepSeek-V3 to naprawdę mocny model, zwłaszcza w kodowaniu i matematyce. Czy jest „lepszy” od GPT-4o? Zależy od zadania. Czy jest 10 razy tańszy? Tak. Czy to wystarcza, żeby nazwać to przełomem? Moim zdaniem tak.

A jeśli V5 faktycznie nadchodzi — i jeśli Chiny dalej będą optymalizować koszty i omijać sankcje — to wyścig AI właśnie stał się dużo bardziej wyrównany. I dużo ciekawszy.

Piotr Olszewski

ADMINISTRATOR

Entuzjasta technologii, od 5 lat śledzi rozwój sztucznej inteligencji. Specjalizuje się w modelach językowych i Midjourney.