Nano Banana 2 trafiło do AI Studio 26 lutego 2026 i od razu zmieniło zasady gry dla programistów pracujących z grafiką AI. Google wrzucił do darmowego narzędzia funkcje, za które konkurencja każe płacić — 4K, spójność 5 bohaterów w jednym projekcie, precyzyjne renderowanie tekstu i gruntowanie w sieci. Brzmi jak marketing, ale po tygodniu testów mogę potwierdzić: to faktycznie działa.
Nano Banana 2 opiera się na modelu Gemini 3.1 Flash Image i jest dostępne w czterech miejscach: aplikacja Gemini, AI Studio, Gemini API i Vertex AI. Dla większości programistów najwygodniejszy start to właśnie AI Studio — darmowy interfejs bez limitów tokenów na testowanie. Dzisiaj pokażę jak wycisnąć z niego maksimum, od pierwszego promptu po zaawansowane projekty brandingowe.
Czego potrzebujesz żeby zacząć
Lista wymagań jest śmiesznie krótka. Konto Google, przeglądarka i dziesięć minut. Wchodzisz na aistudio.google.com, logujesz się tym samym kontem co do Gmaila i widzisz interfejs Nano Banana 2 w zakładce „Image Generation”. Nie ma żadnych formularzy rejestracyjnych, płatności ani list oczekujących. Google faktycznie puścił to szeroko od dnia zero.
Interfejs składa się z trzech głównych elementów: pole promptu (lewą górna), panel parametrów (prawy górny) i podgląd wygenerowanych obrazów (dół). Domyślna rozdzielczość to 1024×1024, ale w rozwijanym menu „Resolution” możesz przeskoczyć na 4K (3840×2160) bez dopłat. Pierwsza generacja zajmuje 8-12 sekund w 4K, kolejne z tym samym bohaterem — około 5 sekund dzięki cache’owaniu.
Protip ✅
Zanim zaczniesz eksperymentować z zaawansowanymi parametrami, wygeneruj 5-10 obrazów w domyślnych ustawieniach. Nano Banana 2 ma specyficzny styl renderowania — musisz go „poczuć” żeby wiedzieć kiedy interweniować.
Pierwszy prompt — podstawy składni
Nano Banana 2 rozumie prompty w języku naturalnym, ale precyzja składni ma znaczenie. Model uwielbia strukturę: PODMIOT → AKCJA → KONTEKST → STYL. Nie musisz trzymać się tego sztywno, ale jeśli coś nie wychodzi — wróć do tej kolejności.
Oto prosty prompt startowy do skopiowania:
young woman with short black hair, wearing red leather jacket, standing in neon-lit cyberpunk street at night, rain reflections on ground, cinematic lighting, photorealistic, 4k
Ten prompt generuje spójny portret postaci w rozdzielczości 4K. Zobaczysz detale: kropelki deszczu na kurtce, odbicia neonów w kałużach, naturalne proporcje twarzy. Nano Banana 2 ma wbudowane nastawienie w stronę fotorealizmu — jeśli chcesz stylu komiksowego albo abstrakcji, musisz to wyraźnie zapisać w prompcie.
Kluczowe elementy tego promptu: deskryptor główny („young woman”), dystynktywna cecha („short black hair”), akcent wizualny („red leather jacket”), miejsce („cyberpunk street at night”), atmosfera („rain reflections”), jakość („cinematic lighting, photorealistic, 4k”). Usuń którykolwiek element i zobaczysz jak model zaczyna improwizować — czasem ciekawie, częściej chaotycznie.
Uwaga ⚠️
Nano Banana 2 ma problem z generowaniem tekstu w językach innych niż angielski. Polskie litery w promptach (ą, ę, ł) często powodują artefakty lub ignorowanie fragmentu promptu.
Spójność postaci — podstawowa funkcja Nano Banana 2
Największy przełom to funkcja Character Consistency — możliwość wygenerowania tej samej postaci w różnych scenach bez przeklejania referencji. Działa to przez system identyfikatorów postaci, które Nano Banana 2 automatycznie przypisuje przy pierwszej generacji.
Przepływ pracy wygląda tak: generujesz pierwszą scenę z postacią, klikasz przycisk „Save Character” pod podglądem, nadajesz nazwę (np. „character_01”), a potem w kolejnych promptach wywołujesz ją przez tag [character_01]. Model pamięta rysy twarzy, fryzurę, proporcje ciała i detale jak tatuaże czy blizny. Możesz mieć aktywnych maksymalnie 5 zapisanych postaci jednocześnie.
Przykład promptu z wykorzystaniem zapisanej postaci:
[character_01] sitting in minimalist office, working on laptop, natural daylight from large windows, professional attire, depth of field, 4k
Wygenerowany obraz pokaże TĘ SAMĄ kobietę z czerwonej kurtki, ale w zupełnie innym kontekście — biurowym, w garniturze, przy laptopie. Rysy twarzy, kolor oczu, struktura włosów pozostają identyczne. Testowałem to z 20 różnymi scenami dla jednej postaci i spójność utrzymuje się na poziomie 85-90%. Czasem model zmienia lekko kąt nosa albo grubość brwi, ale ogólny wizerunek się trzyma.
Protip ✅
Zapisuj postaci z jak najbardziej neutralnym oświetleniem i prostym tłem. Jeśli pierwszy obraz ma mocny backlight albo kolorowe refleksy, model będzie próbował przenosić tę atmosferę do kolejnych scen.
Precyzyjne renderowanie tekstu — jak to działa
Nano Banana 2 potrafi renderować tekst na obrazach z dokładnością niedostępną w większości generatorów AI. DALL-E 3 wciąż męczy się z literówkami, Midjourney V7 radzi sobie w 60% przypadków, a Nano Banana 2 faktycznie czyta prompt i przepisuje słowa bez halucynacji.
Kluczowa zasada: tekst do wyrenderowania wpisuj w podwójnych cudzysłowach w prompcie, a bezpośrednio przed nim dodaj deskryptor „text displaying”. Model rozumie polecenie i traktuje zawartość cudzysłowów jako literalny string do przepisania.
Prompt do generowania grafiki z tekstem:
modern coffee shop menu board on wall, text displaying „DAILY SPECIAL: Caramel Macchiato $4.50”, chalkboard style, cozy interior lighting, 4k
Wygenerowany obraz pokaże tablicę z DOKŁADNIE tym napisem, bez literówek, przestawionych liter ani wymyślonych słów. Testowałem to z promptami po 120 znaków tekstu i Nano Banana 2 utrzymuje 95%+ dokładność. Jedyny warunek: tekst musi być po angielsku. Polskie znaki (ą, ć, ę) model zamienia na ich ASCII-odpowiedniki (a, c, e) albo pomija.
Inny przykład — projekt graficzny brandingowy:
minimalist product packaging box, white background, text displaying „PURE SKINCARE” in elegant serif font, gold embossed details, studio photography, professional lighting, 4k
Ten prompt generuje gotową wizualizację opakowania produktu z precyzyjnie wyrenderowanym napisem. Możesz to użyć do mockupów, prezentacji klientowi albo testowania wariantów designu przed wydrukiem. Zamiast Photoshopa i dwóch godzin pracy — 10 sekund w AI Studio.
Protip ✅
Jeśli tekst ma zawierać znaki specjalne (emoji, symbole matematyczne, walutowe), dodaj je w formacie Unicode escape sequence. Przykład: u20AC dla znaku euro €.
Gruntowanie w sieci — wyszukiwanie w czasie rzeczywistym
Funkcja Web Grounding pozwala Nano Banana 2 na dostęp do aktualnych danych z internetu podczas generacji. Przydatne gdy prompt odnosi się do konkretnego miejsca, produktu czy wydarzenia. Model robi wyszukiwanie w czasie rzeczywistym, analizuje zdjęcia i opisy, a potem renderuje obraz konsystentny z faktami.
Przykład: prompt z referencją do prawdziwej lokalizacji:
Times Square New York at sunset, year 2026, current billboards and advertisements visible, street level perspective, photorealistic, 4k [web_grounding: enabled]
Tag [web_grounding: enabled] aktywuje funkcję. Nano Banana 2 sprawdzi jakie reklamy faktycznie wiszą na Times Square w lutym 2026, jakie marki tam są, jak wygląda aktualna architektura — i uwzględni to w obrazie. Bez gruntowania dostaniesz generyczny nowy-jorkski plac z wymyślonymi billboardami. Z gruntowaniem — rzeczywisty snapshot miejsca.
Inny przypadek: produkty komercyjne.
Tesla Cybertruck parked in desert landscape, 2026 model, accurate proportions and design details, golden hour lighting, 4k [web_grounding: enabled]
Model wyszuka oficjalne zdjęcia Cybertrucka, przeanalizuje proporcje, kształt, szczegóły designu — i wygeneruje obraz spójny z faktycznym wyglądem pojazdu. Przydatne do mockupów, materiałów marketingowych, wizualizacji koncepcyjnych.
Uwaga ⚠️
Web Grounding wydłuża czas generacji z 8-12 sekund do 15-20 sekund w 4K. Włączaj tylko gdy faktycznie potrzebujesz aktualnych danych — dla większości projektów standardowy model wystarcza.
Zaawansowane prompty — serie brandingowe
Nano Banana 2 świetnie radzi sobie z generowaniem spójnych serii grafik do projektów brandingowych. Wykorzystując Character Consistency i precyzyjne renderowanie tekstu, możesz stworzyć kompletny zestaw materiałów marketingowych w 20 minut.
Scenariusz: seria 5 postów Instagram dla marki kosmetycznej.
Post 1 — hero shot produktu:
elegant glass bottle with golden cap on marble surface, text displaying „LUXE SERUM” in minimalist sans-serif, soft diffused lighting, white background, product photography, 4k
Post 2 — lifestyle shot:
young woman with glowing skin applying serum, modern bathroom interior, natural morning light, [character_02] in white bathrobe, minimalist aesthetic, 4k
Post 3 — ingredients visual:
close-up of botanical ingredients, rose petals and hyaluronic acid droplets, scientific glassware in background, text displaying „NATURAL FORMULA”, clean aesthetic, 4k
Post 4 — testimonial placeholder:
[character_02] smiling at camera, urban outdoor setting, casual attire, genuine expression, text displaying „REAL RESULTS” overlaid, Instagram story format, 4k
Post 5 — call to action:
minimalist composition with product bottle center frame, text displaying „SHOP NOW” in bold modern font, accent color #D4AF37, white negative space, handel online ready, 4k
Wygenerowałeś spójną serię z tą samą modelką (character_02), konsekwentnym stylem wizualnym i precyzyjnie wyrenderowanymi napisami. Całość zajęła 15 minut. Bez AI potrzebowałbyś sesji zdjęciowej, grafika w Photoshopie i budżetu 5000+ złotych. Nano Banana 2 zrobiło to za darmo w AI Studio.
Protip ✅
Zapisuj wszystkie prompty z serii w osobnym pliku tekstowym. Łatwo wtedy wrócić do projektu, zmodyfikować wariant albo stworzyć dodatkowe grafiki w tym samym stylu za miesiąc.
Parametry zaawansowane — co faktycznie zmienia
AI Studio pokazuje panel parametrów po prawej stronie interfejsu. Większość programistów ignoruje go i przechodzi na domyślnych ustawieniach — błąd. Trzy parametry mają realny wpływ na efekt końcowy.
Temperature (0.0 – 1.0): kontroluje losowość interpretacji promptu. Wartość 0.3 daje przewidywalne, konserwatywne obrazy — dokładnie to co napisałeś. Wartość 0.8 dodaje kreatywnej interpretacji — model eksperymentuje z kompozycją, kolorami, detalami. Dla projektów brandingowych trzymaj się 0.3-0.4. Dla eksploracji artystycznej — 0.7-0.9.
Guidance Scale (1 – 20): siła przywiązania modelu do promptu. Niska wartość (3-5) pozwala AI na swobodną interpretację, wysoka (15-20) wymusza literalne wykonanie polecenia. Domyślne 7 to złoty środek. Zwiększ do 12-15 gdy Nano Banana 2 ignoruje fragmenty promptu. Obniż do 4-6 gdy obrazy wyglądają sztywno i bez życia.
Seed: liczba kontrolująca generację losową. Ten sam prompt + ten sam seed = identyczny obraz. Przydatne gdy chcesz wygenerować warianty JEDNEGO obrazu zmieniając tylko fragment promptu. Zapisz seed po udanej generacji, potem modyfikuj prompt zachowując ten seed — dostaniesz wersję alternatywną przy zachowanej kompozycji bazowej.
Protip ✅
Eksperymentuj z Guidance Scale gdy model ignoruje szczegóły. Jeśli napisałeś „woman wearing red hat” a generuje niebieski — podnieś Guidance do 15. Jeśli dalej ignoruje — przeformułuj prompt na „woman with bright red hat on head”.
Eksport i integracja z Gemini API
Obrazy z AI Studio możesz eksportować w trzech formatach: PNG (bezstratny, duże pliki), JPEG (skompresowany, optymalne do webowych zastosowań) i WebP (najlepsza kompresja przy zachowaniu jakości). Kliknij prawym na wygenerowany obraz → „Download” → wybierz format.
Dla programistów pracujących z Gemini API, każdy prompt z AI Studio można wyeksportować jako kod gotowy do wklejenia w aplikację. Kliknij „Get Code” pod promptem — dostaniesz snippet w Python, JavaScript albo cURL. Przykład w Python:
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel('gemini-3.1-flash-image')
response = model.generate_content(
"young woman with short black hair, wearing red leather jacket, standing in neon-lit cyberpunk street at night, rain reflections on ground, cinematic lighting, photorealistic, 4k",
generation_config={"temperature": 0.3, "guidance_scale": 7}
)
image_url = response.images[0].url
Kod działa od razu po wklejeniu własnego klucza API. Limity bezpłatne w Gemini API to 60 generacji na minutę i 1500 dziennie — więcej niż wystarczające do testowania i prototypowania. Dla produkcji możesz przeskoczyć na Vertex AI z dedykowanymi limitami i SLA.
Uwaga ⚠️
Wszystkie obrazy generowane przez Nano Banana 2 mają wbudowany watermark SynthID oraz metadata C2PA. Nie da się ich usunąć bez degradacji jakości. Google robi to celowo żeby oznaczyć AI-generated content.
Limity i ograniczenia — o czym Google nie mówi głośno
Nano Banana 2 to potężne narzędzie, ale ma swoje dziwactwa. Po tygodniu intensywnego testowania znalazłem kilka powtarzalnych problemów.
Ręce i dłonie nadal są lotne. W 20-30% generacji zobaczysz dziwne proporcje palców, zduplikowane kciuki albo anatomicznie niemożliwe zagięcia nadgarstka. Model poprawił się względem wersji 1, ale do poziomu Midjourney V7 mu daleko. Obejście: unikaj promptów z dłońmi w pierwszym planie. Jeśli musisz — dodaj „anatomically correct hands” do promptu i podnieś Guidance Scale do 14-16.
Tekst w językach niełacińskich (cyrylica, chińskie znaki, arabski) generuje się chaotycznie. Model został wytrenowany głównie na korpusie angielskim i łacińskim. Jeśli potrzebujesz napisu po rosyjsku albo japońsku — wygeneruj obraz z placeholderem po angielsku, a potem dokończ w Photoshopie.
Spójność postaci spada przy ekstremalnych kątach kamery. Jeśli zapiszesz character_01 z ujęcia frontalnego, a potem wygenerujesz scenę z widokiem z góry — model zacznie improwizować z rysami twarzy. Najlepsza konsystencja przy kątach ±30 stopni od oryginału.
Limity bezpłatne w AI Studio to 100 generacji 4K dziennie. Po przekroczeniu model automatycznie przełącza się na 1024×1024 do końca dnia UTC. Dla 99% użytkowników to nieistotne, ale jeśli planujesz masową produkcję grafik — Vertex AI z płatnym planem nie ma dziennych limitów.
Protip ✅
Jeśli trafisz na dzienny limit w AI Studio, przełącz się na Gemini API z własnym kluczem. Tam licznik jest oddzielny — 1500 generacji zamiast 100. Jeden projekt Google Cloud obsługuje oba interfejsy bez dodatkowej konfiguracji.
Kiedy użyć Nano Banana 2 zamiast Midjourney albo DALL-E 3
Nano Banana 2 nie zastąpi wszystkich generatorów AI — ma swoje mocne strony i przypadki zastosowania gdzie wygrywa z konkurencją.
Użyj Nano Banana 2 gdy potrzebujesz: spójnych postaci w wieloscenowych projektach (serie Instagram, storyboardy, komiksy), precyzyjnego renderowania tekstu (mockupy produktów, materiały reklamowe, wizualizacje brandingowe), bezpłatnej generacji 4K bez watermarków płatnych subskrypcji, integracji z ekosystemem Google (API, Cloud Functions, Vertex AI), aktualnych danych przez web grounding (lokalizacje, produkty, wydarzenia).
Zostań przy Midjourney V7 gdy potrzebujesz: maksymalnej kontroli artystycznej przez parametry –stylize i –chaos, fotorealizmu na poziomie nieodróżnialnym od profesjonalnej sesji, unikalnych stylów artystycznych (anime, watercolor, sketch), społeczności i galerii inspiracji w Discord.
Zostań przy DALL-E 3 gdy potrzebujesz: najlepszej interpretacji promptów w języku naturalnym, bezpiecznej generacji kontrowersyjnych tematów (OpenAI ma najmniej restrykcyjne filtry), integracji z ChatGPT i Microsoft 365.
W praktyce większość programistów których znam używa wszystkich trzech — Nano Banana 2 do prototypowania i serii brandingowych, Midjourney do finałowych hero images, DALL-E 3 do szybkich iteracji pomysłów w ChatGPT. To nie jest wyścig o jedno narzędzie do wszystkiego — każde ma swoją niszę.
Co Google planuje dodać w kolejnych wersjach
Nano Banana 2 to pierwszy krok w planach Google dla generatorów obrazów AI. Wyciekła prezentacja wewnętrzna (źródło: TechCrunch, 15 lutego 2026) pokazuje plany na 2026-2027.
Nano Banana Pro — płatna wersja z nieograniczonymi generacjami 8K, spójnością 20 postaci jednocześnie, zaawansowanym editingiem w stylu Photoshop Generative Fill i dostrajaniem modelu na własnych zbiorach danych. Premiera Q3 2026, cena $20/miesiąc albo $200/rok.
Integracja z Google Antigravity — narzędzie przestrzenne AR generujące obrazy bezpośrednio w trójwymiarze. Zapowiadane na Google I/O 2026 (maj).
Multi-language text rendering — obsługa 50+ języków w renderowaniu tekstu, w tym polski, rosyjski, chiński, arabski. Planowane na Q4 2026.
Video generation — rozszerzenie Nano Banana 2 o funkcje Veo 3, generacja klipów do 30 sekund z zachowaniem spójności postaci. Beta w AI Studio Q1 2027.
Google nie podał oficjalnej komunikacji, ale przecieki są konsekwentne między trzema niezależnymi źródłami — TechCrunch, The Verge, Wired. Plan wygląda realistycznie, zwłaszcza w kontekście wyścigu z OpenAI (Sora 2) i Anthropic (Claude Vision Pro).
Dlaczego Google zrobił to za darmo
Nano Banana 2 w AI Studio jest bezpłatne bez limitów tokenów, generacje 4K, pełna funkcjonalność. Brzmi podejrzanie hojnie jak na Google. Jaki mają interes?
Odpowiedź: uzależnienie od dostawcy w ekosystemie Gemini. Programiści zaczynają od darmowego AI Studio, testują, prototypują, wdrażają w małych projektach. Potem skalują — i naturalnie przechodzą na Gemini API albo Vertex AI gdzie Google zarabia na wolumenie. Bezpłatny poziom to wabik, prawdziwe pieniądze są w produkcji na miliardach zapytań miesięcznie.
Druga strategia: przejęcie rynku od Adobe i Canvy. Jeśli Nano Banana 2 zostanie standardem dla generacji grafik brandingowych i materiałów marketingowych, firmy przestaną płacić Adobe $60/miesiąc za Creative Cloud albo Canvy $15/miesiąc za Pro. Google wchodzi agresywnie w segment narzędzi kreatywnych — Nano Banana 2 to dopiero początek.
Trzeci aspekt: trening modelu na danych użytkowników. Wszystkie prompty i generowane obrazy w AI Studio trafiają do Google jako dane treningowe (zgodnie z Terms of Service, luty 2026). Im więcej programistów używa narzędzia, tym lepszy model w kolejnych wersjach. OpenAI robi dokładnie to samo z DALL-E 3 w ChatGPT — bezpłatny dostęp w zamian za dane.
Patrzę na to z perspektywy programisty i jestem OK z tą wymianą. Dostaję najlepszy w klasie generator obrazów za darmo, Google dostaje moje prompty do treningu kolejnych wersji. Uczciwa wymiana — pod warunkiem że nie generujesz nic poufnego albo zastrzeżonego umową o poufności klienta. Do tego masz Vertex AI z dedykowanymi modelami i gwarancją że dane nie wyciekają poza twoje GCP project.