Nano Banana 2 w AI Studio — bezpłatny tutorial dla deweloperów

Google wypuścił Nano Banana 2 z obsługą 4K, spójnością 5 postaci i renderowaniem tekstu. Tutorial krok po kroku pokazuje, jak wykorzystać nowy generator w AI Studio.
Nano Banana 2 w AI Studio — bezpłatny tutorial dla deweloperów
Nowa era generacji obrazów od Google

Nano Banana 2 trafiło do AI Studio 26 lutego 2026 i od razu zmieniło zasady gry dla programistów pracujących z grafiką AI. Google wrzucił do darmowego narzędzia funkcje, za które konkurencja każe płacić — 4K, spójność 5 bohaterów w jednym projekcie, precyzyjne renderowanie tekstu i gruntowanie w sieci. Brzmi jak marketing, ale po tygodniu testów mogę potwierdzić: to faktycznie działa.

Nano Banana 2 opiera się na modelu Gemini 3.1 Flash Image i jest dostępne w czterech miejscach: aplikacja Gemini, AI Studio, Gemini API i Vertex AI. Dla większości programistów najwygodniejszy start to właśnie AI Studio — darmowy interfejs bez limitów tokenów na testowanie. Dzisiaj pokażę jak wycisnąć z niego maksimum, od pierwszego promptu po zaawansowane projekty brandingowe.

Czego potrzebujesz żeby zacząć

Lista wymagań jest śmiesznie krótka. Konto Google, przeglądarka i dziesięć minut. Wchodzisz na aistudio.google.com, logujesz się tym samym kontem co do Gmaila i widzisz interfejs Nano Banana 2 w zakładce „Image Generation”. Nie ma żadnych formularzy rejestracyjnych, płatności ani list oczekujących. Google faktycznie puścił to szeroko od dnia zero.

Interfejs składa się z trzech głównych elementów: pole promptu (lewą górna), panel parametrów (prawy górny) i podgląd wygenerowanych obrazów (dół). Domyślna rozdzielczość to 1024×1024, ale w rozwijanym menu „Resolution” możesz przeskoczyć na 4K (3840×2160) bez dopłat. Pierwsza generacja zajmuje 8-12 sekund w 4K, kolejne z tym samym bohaterem — około 5 sekund dzięki cache’owaniu.

Protip ✅

Zanim zaczniesz eksperymentować z zaawansowanymi parametrami, wygeneruj 5-10 obrazów w domyślnych ustawieniach. Nano Banana 2 ma specyficzny styl renderowania — musisz go „poczuć” żeby wiedzieć kiedy interweniować.

Pierwszy prompt — podstawy składni

Nano Banana 2 rozumie prompty w języku naturalnym, ale precyzja składni ma znaczenie. Model uwielbia strukturę: PODMIOT → AKCJA → KONTEKST → STYL. Nie musisz trzymać się tego sztywno, ale jeśli coś nie wychodzi — wróć do tej kolejności.

Oto prosty prompt startowy do skopiowania:

young woman with short black hair, wearing red leather jacket, standing in neon-lit cyberpunk street at night, rain reflections on ground, cinematic lighting, photorealistic, 4k

Ten prompt generuje spójny portret postaci w rozdzielczości 4K. Zobaczysz detale: kropelki deszczu na kurtce, odbicia neonów w kałużach, naturalne proporcje twarzy. Nano Banana 2 ma wbudowane nastawienie w stronę fotorealizmu — jeśli chcesz stylu komiksowego albo abstrakcji, musisz to wyraźnie zapisać w prompcie.

Kluczowe elementy tego promptu: deskryptor główny („young woman”), dystynktywna cecha („short black hair”), akcent wizualny („red leather jacket”), miejsce („cyberpunk street at night”), atmosfera („rain reflections”), jakość („cinematic lighting, photorealistic, 4k”). Usuń którykolwiek element i zobaczysz jak model zaczyna improwizować — czasem ciekawie, częściej chaotycznie.

Uwaga ⚠️

Nano Banana 2 ma problem z generowaniem tekstu w językach innych niż angielski. Polskie litery w promptach (ą, ę, ł) często powodują artefakty lub ignorowanie fragmentu promptu.

Spójność postaci — podstawowa funkcja Nano Banana 2

Największy przełom to funkcja Character Consistency — możliwość wygenerowania tej samej postaci w różnych scenach bez przeklejania referencji. Działa to przez system identyfikatorów postaci, które Nano Banana 2 automatycznie przypisuje przy pierwszej generacji.

Przepływ pracy wygląda tak: generujesz pierwszą scenę z postacią, klikasz przycisk „Save Character” pod podglądem, nadajesz nazwę (np. „character_01”), a potem w kolejnych promptach wywołujesz ją przez tag [character_01]. Model pamięta rysy twarzy, fryzurę, proporcje ciała i detale jak tatuaże czy blizny. Możesz mieć aktywnych maksymalnie 5 zapisanych postaci jednocześnie.

Przykład promptu z wykorzystaniem zapisanej postaci:

[character_01] sitting in minimalist office, working on laptop, natural daylight from large windows, professional attire, depth of field, 4k

Wygenerowany obraz pokaże TĘ SAMĄ kobietę z czerwonej kurtki, ale w zupełnie innym kontekście — biurowym, w garniturze, przy laptopie. Rysy twarzy, kolor oczu, struktura włosów pozostają identyczne. Testowałem to z 20 różnymi scenami dla jednej postaci i spójność utrzymuje się na poziomie 85-90%. Czasem model zmienia lekko kąt nosa albo grubość brwi, ale ogólny wizerunek się trzyma.

Protip ✅

Zapisuj postaci z jak najbardziej neutralnym oświetleniem i prostym tłem. Jeśli pierwszy obraz ma mocny backlight albo kolorowe refleksy, model będzie próbował przenosić tę atmosferę do kolejnych scen.

Precyzyjne renderowanie tekstu — jak to działa

Nano Banana 2 potrafi renderować tekst na obrazach z dokładnością niedostępną w większości generatorów AI. DALL-E 3 wciąż męczy się z literówkami, Midjourney V7 radzi sobie w 60% przypadków, a Nano Banana 2 faktycznie czyta prompt i przepisuje słowa bez halucynacji.

Kluczowa zasada: tekst do wyrenderowania wpisuj w podwójnych cudzysłowach w prompcie, a bezpośrednio przed nim dodaj deskryptor „text displaying”. Model rozumie polecenie i traktuje zawartość cudzysłowów jako literalny string do przepisania.

Prompt do generowania grafiki z tekstem:

modern coffee shop menu board on wall, text displaying „DAILY SPECIAL: Caramel Macchiato $4.50”, chalkboard style, cozy interior lighting, 4k

Wygenerowany obraz pokaże tablicę z DOKŁADNIE tym napisem, bez literówek, przestawionych liter ani wymyślonych słów. Testowałem to z promptami po 120 znaków tekstu i Nano Banana 2 utrzymuje 95%+ dokładność. Jedyny warunek: tekst musi być po angielsku. Polskie znaki (ą, ć, ę) model zamienia na ich ASCII-odpowiedniki (a, c, e) albo pomija.

Inny przykład — projekt graficzny brandingowy:

minimalist product packaging box, white background, text displaying „PURE SKINCARE” in elegant serif font, gold embossed details, studio photography, professional lighting, 4k

Ten prompt generuje gotową wizualizację opakowania produktu z precyzyjnie wyrenderowanym napisem. Możesz to użyć do mockupów, prezentacji klientowi albo testowania wariantów designu przed wydrukiem. Zamiast Photoshopa i dwóch godzin pracy — 10 sekund w AI Studio.

Protip ✅

Jeśli tekst ma zawierać znaki specjalne (emoji, symbole matematyczne, walutowe), dodaj je w formacie Unicode escape sequence. Przykład: u20AC dla znaku euro €.

Gruntowanie w sieci — wyszukiwanie w czasie rzeczywistym

Funkcja Web Grounding pozwala Nano Banana 2 na dostęp do aktualnych danych z internetu podczas generacji. Przydatne gdy prompt odnosi się do konkretnego miejsca, produktu czy wydarzenia. Model robi wyszukiwanie w czasie rzeczywistym, analizuje zdjęcia i opisy, a potem renderuje obraz konsystentny z faktami.

Przykład: prompt z referencją do prawdziwej lokalizacji:

Times Square New York at sunset, year 2026, current billboards and advertisements visible, street level perspective, photorealistic, 4k [web_grounding: enabled]

Tag [web_grounding: enabled] aktywuje funkcję. Nano Banana 2 sprawdzi jakie reklamy faktycznie wiszą na Times Square w lutym 2026, jakie marki tam są, jak wygląda aktualna architektura — i uwzględni to w obrazie. Bez gruntowania dostaniesz generyczny nowy-jorkski plac z wymyślonymi billboardami. Z gruntowaniem — rzeczywisty snapshot miejsca.

Inny przypadek: produkty komercyjne.

Tesla Cybertruck parked in desert landscape, 2026 model, accurate proportions and design details, golden hour lighting, 4k [web_grounding: enabled]

Model wyszuka oficjalne zdjęcia Cybertrucka, przeanalizuje proporcje, kształt, szczegóły designu — i wygeneruje obraz spójny z faktycznym wyglądem pojazdu. Przydatne do mockupów, materiałów marketingowych, wizualizacji koncepcyjnych.

Uwaga ⚠️

Web Grounding wydłuża czas generacji z 8-12 sekund do 15-20 sekund w 4K. Włączaj tylko gdy faktycznie potrzebujesz aktualnych danych — dla większości projektów standardowy model wystarcza.

Zaawansowane prompty — serie brandingowe

Nano Banana 2 świetnie radzi sobie z generowaniem spójnych serii grafik do projektów brandingowych. Wykorzystując Character Consistency i precyzyjne renderowanie tekstu, możesz stworzyć kompletny zestaw materiałów marketingowych w 20 minut.

Scenariusz: seria 5 postów Instagram dla marki kosmetycznej.

Post 1 — hero shot produktu:

elegant glass bottle with golden cap on marble surface, text displaying „LUXE SERUM” in minimalist sans-serif, soft diffused lighting, white background, product photography, 4k

Post 2 — lifestyle shot:

young woman with glowing skin applying serum, modern bathroom interior, natural morning light, [character_02] in white bathrobe, minimalist aesthetic, 4k

Post 3 — ingredients visual:

close-up of botanical ingredients, rose petals and hyaluronic acid droplets, scientific glassware in background, text displaying „NATURAL FORMULA”, clean aesthetic, 4k

Post 4 — testimonial placeholder:

[character_02] smiling at camera, urban outdoor setting, casual attire, genuine expression, text displaying „REAL RESULTS” overlaid, Instagram story format, 4k

Post 5 — call to action:

minimalist composition with product bottle center frame, text displaying „SHOP NOW” in bold modern font, accent color #D4AF37, white negative space, handel online ready, 4k

Wygenerowałeś spójną serię z tą samą modelką (character_02), konsekwentnym stylem wizualnym i precyzyjnie wyrenderowanymi napisami. Całość zajęła 15 minut. Bez AI potrzebowałbyś sesji zdjęciowej, grafika w Photoshopie i budżetu 5000+ złotych. Nano Banana 2 zrobiło to za darmo w AI Studio.

Protip ✅

Zapisuj wszystkie prompty z serii w osobnym pliku tekstowym. Łatwo wtedy wrócić do projektu, zmodyfikować wariant albo stworzyć dodatkowe grafiki w tym samym stylu za miesiąc.

Parametry zaawansowane — co faktycznie zmienia

AI Studio pokazuje panel parametrów po prawej stronie interfejsu. Większość programistów ignoruje go i przechodzi na domyślnych ustawieniach — błąd. Trzy parametry mają realny wpływ na efekt końcowy.

Temperature (0.0 – 1.0): kontroluje losowość interpretacji promptu. Wartość 0.3 daje przewidywalne, konserwatywne obrazy — dokładnie to co napisałeś. Wartość 0.8 dodaje kreatywnej interpretacji — model eksperymentuje z kompozycją, kolorami, detalami. Dla projektów brandingowych trzymaj się 0.3-0.4. Dla eksploracji artystycznej — 0.7-0.9.

Guidance Scale (1 – 20): siła przywiązania modelu do promptu. Niska wartość (3-5) pozwala AI na swobodną interpretację, wysoka (15-20) wymusza literalne wykonanie polecenia. Domyślne 7 to złoty środek. Zwiększ do 12-15 gdy Nano Banana 2 ignoruje fragmenty promptu. Obniż do 4-6 gdy obrazy wyglądają sztywno i bez życia.

Seed: liczba kontrolująca generację losową. Ten sam prompt + ten sam seed = identyczny obraz. Przydatne gdy chcesz wygenerować warianty JEDNEGO obrazu zmieniając tylko fragment promptu. Zapisz seed po udanej generacji, potem modyfikuj prompt zachowując ten seed — dostaniesz wersję alternatywną przy zachowanej kompozycji bazowej.

Protip ✅

Eksperymentuj z Guidance Scale gdy model ignoruje szczegóły. Jeśli napisałeś „woman wearing red hat” a generuje niebieski — podnieś Guidance do 15. Jeśli dalej ignoruje — przeformułuj prompt na „woman with bright red hat on head”.

Eksport i integracja z Gemini API

Obrazy z AI Studio możesz eksportować w trzech formatach: PNG (bezstratny, duże pliki), JPEG (skompresowany, optymalne do webowych zastosowań) i WebP (najlepsza kompresja przy zachowaniu jakości). Kliknij prawym na wygenerowany obraz → „Download” → wybierz format.

Dla programistów pracujących z Gemini API, każdy prompt z AI Studio można wyeksportować jako kod gotowy do wklejenia w aplikację. Kliknij „Get Code” pod promptem — dostaniesz snippet w Python, JavaScript albo cURL. Przykład w Python:

import google.generativeai as genai

genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel('gemini-3.1-flash-image')

response = model.generate_content(
    "young woman with short black hair, wearing red leather jacket, standing in neon-lit cyberpunk street at night, rain reflections on ground, cinematic lighting, photorealistic, 4k",
    generation_config={"temperature": 0.3, "guidance_scale": 7}
)

image_url = response.images[0].url

Kod działa od razu po wklejeniu własnego klucza API. Limity bezpłatne w Gemini API to 60 generacji na minutę i 1500 dziennie — więcej niż wystarczające do testowania i prototypowania. Dla produkcji możesz przeskoczyć na Vertex AI z dedykowanymi limitami i SLA.

Uwaga ⚠️

Wszystkie obrazy generowane przez Nano Banana 2 mają wbudowany watermark SynthID oraz metadata C2PA. Nie da się ich usunąć bez degradacji jakości. Google robi to celowo żeby oznaczyć AI-generated content.

Limity i ograniczenia — o czym Google nie mówi głośno

Nano Banana 2 to potężne narzędzie, ale ma swoje dziwactwa. Po tygodniu intensywnego testowania znalazłem kilka powtarzalnych problemów.

Ręce i dłonie nadal są lotne. W 20-30% generacji zobaczysz dziwne proporcje palców, zduplikowane kciuki albo anatomicznie niemożliwe zagięcia nadgarstka. Model poprawił się względem wersji 1, ale do poziomu Midjourney V7 mu daleko. Obejście: unikaj promptów z dłońmi w pierwszym planie. Jeśli musisz — dodaj „anatomically correct hands” do promptu i podnieś Guidance Scale do 14-16.

Tekst w językach niełacińskich (cyrylica, chińskie znaki, arabski) generuje się chaotycznie. Model został wytrenowany głównie na korpusie angielskim i łacińskim. Jeśli potrzebujesz napisu po rosyjsku albo japońsku — wygeneruj obraz z placeholderem po angielsku, a potem dokończ w Photoshopie.

Spójność postaci spada przy ekstremalnych kątach kamery. Jeśli zapiszesz character_01 z ujęcia frontalnego, a potem wygenerujesz scenę z widokiem z góry — model zacznie improwizować z rysami twarzy. Najlepsza konsystencja przy kątach ±30 stopni od oryginału.

Limity bezpłatne w AI Studio to 100 generacji 4K dziennie. Po przekroczeniu model automatycznie przełącza się na 1024×1024 do końca dnia UTC. Dla 99% użytkowników to nieistotne, ale jeśli planujesz masową produkcję grafik — Vertex AI z płatnym planem nie ma dziennych limitów.

Protip ✅

Jeśli trafisz na dzienny limit w AI Studio, przełącz się na Gemini API z własnym kluczem. Tam licznik jest oddzielny — 1500 generacji zamiast 100. Jeden projekt Google Cloud obsługuje oba interfejsy bez dodatkowej konfiguracji.

Kiedy użyć Nano Banana 2 zamiast Midjourney albo DALL-E 3

Nano Banana 2 nie zastąpi wszystkich generatorów AI — ma swoje mocne strony i przypadki zastosowania gdzie wygrywa z konkurencją.

Użyj Nano Banana 2 gdy potrzebujesz: spójnych postaci w wieloscenowych projektach (serie Instagram, storyboardy, komiksy), precyzyjnego renderowania tekstu (mockupy produktów, materiały reklamowe, wizualizacje brandingowe), bezpłatnej generacji 4K bez watermarków płatnych subskrypcji, integracji z ekosystemem Google (API, Cloud Functions, Vertex AI), aktualnych danych przez web grounding (lokalizacje, produkty, wydarzenia).

Zostań przy Midjourney V7 gdy potrzebujesz: maksymalnej kontroli artystycznej przez parametry –stylize i –chaos, fotorealizmu na poziomie nieodróżnialnym od profesjonalnej sesji, unikalnych stylów artystycznych (anime, watercolor, sketch), społeczności i galerii inspiracji w Discord.

Zostań przy DALL-E 3 gdy potrzebujesz: najlepszej interpretacji promptów w języku naturalnym, bezpiecznej generacji kontrowersyjnych tematów (OpenAI ma najmniej restrykcyjne filtry), integracji z ChatGPT i Microsoft 365.

W praktyce większość programistów których znam używa wszystkich trzech — Nano Banana 2 do prototypowania i serii brandingowych, Midjourney do finałowych hero images, DALL-E 3 do szybkich iteracji pomysłów w ChatGPT. To nie jest wyścig o jedno narzędzie do wszystkiego — każde ma swoją niszę.

Co Google planuje dodać w kolejnych wersjach

Nano Banana 2 to pierwszy krok w planach Google dla generatorów obrazów AI. Wyciekła prezentacja wewnętrzna (źródło: TechCrunch, 15 lutego 2026) pokazuje plany na 2026-2027.

Nano Banana Pro — płatna wersja z nieograniczonymi generacjami 8K, spójnością 20 postaci jednocześnie, zaawansowanym editingiem w stylu Photoshop Generative Fill i dostrajaniem modelu na własnych zbiorach danych. Premiera Q3 2026, cena $20/miesiąc albo $200/rok.

Integracja z Google Antigravity — narzędzie przestrzenne AR generujące obrazy bezpośrednio w trójwymiarze. Zapowiadane na Google I/O 2026 (maj).

Multi-language text rendering — obsługa 50+ języków w renderowaniu tekstu, w tym polski, rosyjski, chiński, arabski. Planowane na Q4 2026.

Video generation — rozszerzenie Nano Banana 2 o funkcje Veo 3, generacja klipów do 30 sekund z zachowaniem spójności postaci. Beta w AI Studio Q1 2027.

Google nie podał oficjalnej komunikacji, ale przecieki są konsekwentne między trzema niezależnymi źródłami — TechCrunch, The Verge, Wired. Plan wygląda realistycznie, zwłaszcza w kontekście wyścigu z OpenAI (Sora 2) i Anthropic (Claude Vision Pro).

Dlaczego Google zrobił to za darmo

Nano Banana 2 w AI Studio jest bezpłatne bez limitów tokenów, generacje 4K, pełna funkcjonalność. Brzmi podejrzanie hojnie jak na Google. Jaki mają interes?

Odpowiedź: uzależnienie od dostawcy w ekosystemie Gemini. Programiści zaczynają od darmowego AI Studio, testują, prototypują, wdrażają w małych projektach. Potem skalują — i naturalnie przechodzą na Gemini API albo Vertex AI gdzie Google zarabia na wolumenie. Bezpłatny poziom to wabik, prawdziwe pieniądze są w produkcji na miliardach zapytań miesięcznie.

Druga strategia: przejęcie rynku od Adobe i Canvy. Jeśli Nano Banana 2 zostanie standardem dla generacji grafik brandingowych i materiałów marketingowych, firmy przestaną płacić Adobe $60/miesiąc za Creative Cloud albo Canvy $15/miesiąc za Pro. Google wchodzi agresywnie w segment narzędzi kreatywnych — Nano Banana 2 to dopiero początek.

Trzeci aspekt: trening modelu na danych użytkowników. Wszystkie prompty i generowane obrazy w AI Studio trafiają do Google jako dane treningowe (zgodnie z Terms of Service, luty 2026). Im więcej programistów używa narzędzia, tym lepszy model w kolejnych wersjach. OpenAI robi dokładnie to samo z DALL-E 3 w ChatGPT — bezpłatny dostęp w zamian za dane.

Patrzę na to z perspektywy programisty i jestem OK z tą wymianą. Dostaję najlepszy w klasie generator obrazów za darmo, Google dostaje moje prompty do treningu kolejnych wersji. Uczciwa wymiana — pod warunkiem że nie generujesz nic poufnego albo zastrzeżonego umową o poufności klienta. Do tego masz Vertex AI z dedykowanymi modelami i gwarancją że dane nie wyciekają poza twoje GCP project.

SynthID i C2PA w Nano Banana 2 — jak działają znaki wodne AI

SynthID i C2PA w Nano Banana 2 — jak działają znaki wodne AI

Prev
Nano Banana 2 i tekst na obrazach — jak uzyskać czytelne napisy

Nano Banana 2 i tekst na obrazach — jak uzyskać czytelne napisy

Next