Tiny Aya — Cohere rusza na podbój miliarda nieanglojęzycznych dusz

Cohere Labs dało światu Tiny Aya – wielojęzyczne modele ogarniające 70+ języków i działające offline na byle czym. To może być przełom dla miliardów, dla których angielski to czarna magia.
Tiny Aya — Cohere rusza na podbój miliarda nieanglojęzycznych dusz
Sieci neuronowe rozumiejące języki świata bez internetu

Na India AI Impact Summit w Nowym Delhi — pierwszym światowym szczycie AI hostowanym na Globalnym Południu — Cohere Labs zaprezentowało swoje nowe wielojęzyczne modele. Koniec walki z obsługą 100 języków tylko teoretycznie. Koniec zmuszania użytkowników z Bangladeszu, Nigerii czy Peru do obsługi angielskiego, bo właśnie tam nie działają procesy przetwarzania danych.

Model bazowy zawiera 3,35 miliarda parametrów. Został wytrenowany na klastrze zaledwie 64 GPU NVIDIA H100 — czyli na ułamku zasobów, które wymagają GPT-5 czy Gemini Pro. Model wspiera ponad 70 języków, w tym bengalski, hindi, pendżabski, urdu, gudżarati, tamilski, telugu i marathi.

Co zmienia się w praktyce?

Tiny Aya osiąga około 10 tokenów na sekundę na iPhone 13 i 32 tokeny na sekundę na iPhone 17 Pro. Czyli: bezinternetowa praca z tekstem na zwykłym telefonie. Bez wysyłania słów osoby do chmury. Bez czekania na odpowiedź przez satelitę. To jest prawdziwy przełom dla lekarza w wiosce, pracownika NGO w Afryce czy pomocy społecznej robiącej wywiady w terenie.

Cohere wypuściła również warianty regionalne: Tiny Aya-Global dla ogólnego pokrycia, Tiny Aya-Earth dla języków afrykańskich, Tiny Aya-Fire dla języków południowoazjatyckich i Tiny Aya-Water dla Azji Pacyfiku, Zachodu Azji i Europy. To nie jest magia marketingu — to znaczy, że każdy wariant ma dostrojone neurony dla lokalnych niuansów: form grzecznościowych w hindi, mieszania kodu w suahili, transliteracji w alfabetach niełacińskich.

Model działa bezpośrednio na telefonie, bez chmury
Model działa bezpośrednio na telefonie, bez chmury

Tiny Aya Global przewyższa Gemma3-4B w tłumaczeniu dla 46 z 61 języków na WMT24++. W testach matematycznych dla języków afrykańskich Tiny Aya osiągnęła 39,2 proc. dokładności wobec 17,6 proc. u Gemmy3-4B. Jak na rozmiar modelu — to jest imponujące.

Dla kogo to się przydaje?

Model wspomaga tłumaczenie offline, asystentów o niskim opóźnieniu i narzędzia do pracy w terenie, gdzie dane pacjenta nigdy nie opuszczają urządzenia — możemy myśleć o pracownikach służby zdrowia tłumaczących formularze zgody bez wysyłania danych pacjenta do chmury, bądź czacie do obsługi klienta obsługującym zapytania w mieszanym kodzie angielsko-suahili na lokalnej maszynie. W krajach takich jak Indie ta funkcja offline może odblokować ogólnie dostępne aplikacje bez potrzeby ciągłego dostępu do internetu.

Co ważne, Cohere twierdzi, że bazowy framework programistyczny priorytetyzuje niskie zapotrzebowanie na moc obliczeniową, co sprawia, że regionalne dostrajanie jest ekonomicznie opłacalne dla zespołów, których nie stać na budżety w skali hiperskalowalnej. Znika próg wejścia dla organizacji pozarządowych, wydawnictw, laboratoriów akademickich do lokalizowania systemów dla swoich społeczności.

Dla miliarda użytkowników mówiących poza angielskim
Dla miliarda użytkowników mówiących poza angielskim

Czy to konkurencja dla OpenAI i Google?

Choć GPT-4 i Gemini technicznie wspierają wiele języków, wydajność spada znacząco poza angielskim i kilkoma językami europejskimi. Tiny Aya zostało zaś zaprojektowane dla ponad 70 języków z wariantami regionalnymi, które obsługują dialekty, formy grzecznościowe i kulturowe niuanse — i mogą działać całkowicie offline bez wysyłania danych na serwery zewnętrzne.

Cohere twierdzi, że to podejście pozwala każdemu modelowi rozwinąć głębszą podstawę lingwistyczną i kulturowe niuanse, tworząc systemy, które wydają się bardziej naturalne i niezawodne dla społeczności, dla których są przeznaczone. Jednocześnie wszystkie modele Tiny Aya zachowują szerokie pokrycie wielojęzyczne, czyniąc je elastycznymi punktami wyjścia do dalszych dostosowań i badań.

Google ma Gemini Nano, Microsoft pracuje nad serią Phi, Meta ma Llamę — wszystko zmierza na urządzenia brzegowe. Ale żaden z nich nie pakuje ponad 70 języków w formacie zoptymalizowanym do offline’u, z wariantami regionalnymi dostrojonymi do konkretnych kultur.

Timing nie jest przypadkowy

Cohere zakończyła 2025 rok z 240 milionami dolarów rocznego przychodu cyklicznego i wzrostem 50% kwartał do kwartału przez cały rok. CEO Aidan Gomez powiedział, że firma planuje wkrótce wejść na giełdę. Tiny Aya to nie artykuł naukowy — to sygnał dla rynku: Cohere buduje wielojęzyczny monolit, który można sprzedać firmom operującym w Azji, Afryce, Ameryce Łacińskiej.

Rynek AI dla firm ma przekroczyć 150 miliardów dolarów do 2027 roku, a wsparcie wielojęzyczne staje się warunkiem koniecznym dla globalnych wdrożeń. Firmy takie jak Salesforce, SAP i Oracle potrzebują modeli, które działają w japońskich salach konferencyjnych, arabskich centrach obsługi i hinduskich operacjach obsługi klienta — nie tylko w biurach Doliny Krzemowej.

Tiny Aya wyprzedza Gemmę w 46 z 61 języków
Tiny Aya wyprzedza Gemmę w 46 z 61 języków

Czy warto instalować na swoim laptopie?

Modele są dostępne na HuggingFace, popularnej platformie do dzielenia się modelami AI, i Cohere Platform. Programiści mogą je pobrać z HuggingFace, Kaggle i Ollama do wdrożenia lokalnego. Cohere udostępnia również zestawy danych treningowych i ewaluacyjnych na HuggingFace i planuje opublikować raport techniczny z metodologią treningu.

Praktycznie? Jeśli budujesz aplikację dla ludzi mówiących językami spoza angielskiego i europejskich, którzy mają słabe wifi lub pracują offline — tak, definitywnie warto. Jeśli potrzebujesz tłumaczenia dla zespołu w Kairze, czatbota dla hinduskich klientów czy asystenta dla pracowników w Sierra Leone — to jest to.

Co to oznacza dla przyszłości

Tiny Aya pokazuje, że przyszłość AI nie należy do coraz większych modeli trenowanych na coraz większych klastrach. Należy do inteligentnych modeli, projektowanych dla rzeczywistości, w której żyją prawdziwi ludzie. Miliardy osób mówiących bengalskim, hindi, suahili, arabskim — nie czekają już na łaskę startupów z Silicon Valley. Cohere właśnie powiedziała: dla was będziemy pracować, a robić to będziemy offline, bez chmury, bez kosztów transferu danych.

To jest przełom nie dlatego, że model jest większy. To jest przełom dlatego, że wreszcie jest rozsądny.

Cohere zgarnia 240 mln dolców rocznie – szykuje się na giełdę w 2026

Prev
NVIDIA Rubin — superkomputery AI za 1/10 ceny tokenów. H2 2026 zmienia gospodarkę centrów danych

NVIDIA Rubin — superkomputery AI za 1/10 ceny tokenów. H2 2026 zmienia gospodarkę centrów danych

Next