Sora dostała kontrolę kamery 3D — OpenAI wreszcie robi filmy, nie tylko slajdy

OpenAI rozbudował Sorę o kontrolę kamery 3D i klipy do 2 minut. Reżyserzy testują, rynek się zmienia, Hollywood zaczyna rozglądać za prawnikami.
Sora dostała kontrolę kamery 3D — OpenAI wreszcie robi filmy, nie tylko slajdy
Sora dostała kontrolę kamery 3D — OpenAI wreszcie robi filmy, nie tylko slajdy

OpenAI właśnie podniósł poprzeczkę dla generowania wideo o kilka kondygnacji. Sora w nowej wersji pozwala na precyzyjne sterowanie ścieżką kamery w przestrzeni 3D — można ustawić tor lotu kamery, kąty, zmiany ogniskowej, płynne przejścia między ujęciami. Wszystko to w klipach do 2 minut. To nie jest ewolucja, to przeskok od zabawki dla internetowych twórców do narzędzia dla profesjonalistów.

Dotychczas Sora potrafiła generować wizualnie imponujące klipy, ale kontrola nad kamerą była jak rzucanie kością — mógł wyjść efektowny ruch, albo statyczny kadr. Teraz użytkownik decyduje o wszystkim: czy kamera ma płynnie objechać obiekt, zbliżyć się dolly-in, podążyć za postacią w steadicam, czy zrobić ujęcie z drona. OpenAI mówi wprost, że to ma dać twórcom narzędzia na poziomie profesjonalnego kinematografu. Ambitnie. Zobaczymy, czy wytrzymuje zderzenie z rzeczywistością.

Kontrola kamery jak w prawdziwym studiu

Nowa funkcja 3D camera control działa na zasadzie definiowania ścieżki w trójwymiarowej przestrzeni. Zamiast tylko opisywać w prompcie „kamera przelatuje przez las”, teraz można zadać konkretną trajektorię — punkt startowy, kolejne punkty kontrolne, zakończenie. Sora interpretuje to jako płynny ruch kamery z zachowaniem perspektywy, głębi, przesłonięć przedniego planu. Efekt? Ujęcia, które wyglądają jak z produkcji Hollywood.

W praktyce to znaczy, że można zaplanować sekwencję: kamera startuje z pozycji niskiej przy postaci, płynnie podnosi się do średniego planu, obraca wokół o 180 stopni i cofa się do szerokiego ujęcia. Wcześniej trzeba było generować kilka oddzielnych klipów i modlić się, żeby wyglądały spójnie. Teraz robi się to jednym promptem z definicją ruchu.

Protip ✅

Testuj ścieżki kamery najpierw na krótkich klipach 5-10 sekund. Dopiero jak masz pewność, że trajektoria działa — rozszerzaj do pełnych 2 minut. Zaoszczędzisz tony tokenów.

Dwie minuty to przełom czy pułapka?

Rozszerzenie maksymalnej długości do 2 minut brzmi jak duży krok. W praktyce oznacza możliwość tworzenia kompletnych scen z początkiem, rozwinięciem i zakończeniem — bez konieczności sklejania fragmentów. Dla twórców niezależnych to szansa na stworzenie trailera, reklamy, krótkiego filmu bez studia montażowego.

Ale są haczyki. Po pierwsze, generowanie 2-minutowego klipu w wysokiej rozdzielczości to potężne obciążenie. OpenAI nie podał oficjalnych czasów, ale testerzy mówią o 15-30 minutach oczekiwania na jeden klip. Po drugie, im dłuższy materiał, tym większe ryzyko halucynacji — Sora może nagle zmienić oświetlenie, kostium postaci, geometrię lokacji. Dwie minuty to balansowanie na krawędzi między ambitnym projektem a chaosem.

Reżyserowie już testują — pierwsze wrażenia

Kilku reżyserów dostało wczesny dostęp do nowej wersji Sory. Jeden z twórców — Paul Trillo, znany z eksperymentów z AI — pokazał na Twitterze 45-sekundowy klip z płynnym ruchem kamery śledzącej postać przez futurystyczne miasto. Efekt imponujący, ale z drobną wadą: w jednym ujęciu postać zmienia kolor kurtki z czerwonej na niebieską. Trillo skomentował lakonicznie: „90% genialnie, 10% trzeba ręcznie poprawiać w postprodukcji”.

Inni twórcy testują Sorę do tworzenia animatyków — wersji roboczych scen przed pełną produkcją. Zamiast rysować storyboardy, generują w AI wizualizację ujęcia z konkretnym ruchem kamery. Pozwala to klientom i ekipie zobaczyć, jak scena będzie wyglądała, zanim ktokolwiek zainwestuje w prawdziwy sprzęt.

Uwaga ⚠️

Sora nadal ma problem ze spójnością postaci w dłuższych klipach. Jeśli zależy ci na tym, żeby bohater wyglądał identycznie przez cały materiał — generuj krótsze fragmenty i sklejaj.

Jak to wypada na tle konkurencji

Sora nie jest jedyna. Runway Gen-4.5 oferuje zaawansowaną kontrolę kamery od kilku miesięcy, Kling 3.0 stawia na fizykę ruchu, Google Veo 3 obsługuje dłuższe klipy z lepszą spójnością. Każdy ma swoje przewagi. Sora wyróżnia się intuicyjnym definiowaniem ścieżek 3D — zamiast walczyć z parametrami technicznymi, opisujesz ruch kameralnie: „kamera okrąża przedmiot od lewej do prawej, płynnie”. Model tłumaczy to na ruch.

Runway ma przewagę w montażu — lepsze narzędzia do edycji wygenerowanych klipów. Kling wygrywa w fizyce — przedmioty poruszają się naturalniej, bez dziwnych przyspieszeń. Veo ma największą tolerancję na długie materiały bez halucynacji. Sora stawia na dostępność i prostotę użycia. Która filozofia zwycięży? Zobaczymy, co pokaże rynek w ciągu roku.

Czy to zmieni produkcję filmową

Demokratyzacja dostępu do narzędzi klasy Hollywood brzmi pięknie. W praktyce oznacza, że mały twórca może w tydzień zrobić teledysk, który wygląda jak produkcja za pół miliona dolarów. Studia zaczynają patrzeć na AI jako sposób na obniżenie kosztów preprodukcji — testy wizualne, animatyki, proof-of-concept przed zaangażowaniem prawdziwej ekipy.

Ale jest druga strona. Profesjonalni operatorzy kamery, reżyserzy, montażyści zastanawiają się, co się stanie z ich pracą. Jeśli AI potrafi wygenerować ujęcie lepsze niż przeciętny operator — kto będzie płacić za sprzęt i ludzi? OpenAI twierdzi, że Sora to „narzędzie wspomagające kreatywność”, nie zamiennik. Standardowa retoryka, ale pytanie o granicę między wsparciem a zastąpieniem pozostaje otwarte.

Protip ✅

Jeśli planujesz użyć Sory do komercyjnych projektów — sprawdź licencję. OpenAI ma różne zasady dla użytku osobistego i biznesowego. Nie chcesz walczyć z prawnikami po premierze.

Co dalej z AI w wideo

OpenAI nie ogłosił jeszcze pełnego dostępu do nowej wersji Sory. Testerzy mają wczesny dostęp, reszta czeka. Jeśli historia się powtórzy — pełna premiera w ciągu 2-4 tygodni. Pytanie brzmi, czy kontrola kamery 3D i 2-minutowe klipy wystarczą, żeby Sora stała się standardem branżowym, czy to tylko kolejna funkcja w wyścigu zbrojeń AI video.

Pewne jest jedno: granica między tym, co AI potrafi wygenerować, a tym, co człowiek musi nakręcić fizycznie, rozmywa się w szybkim tempie. Za rok mogą to być 5-minutowe klipy z pełną kontrolą oświetlenia. Za dwa — całe krótkie filmy generowane z promptu. Reżyserzy, którzy teraz eksperymentują, uczą się nowego języka kina. Ci, którzy nie — będą oglądać ich premiery z widowni.

Kling 3.0 kontra Runway Gen-4.5 – uczciwy test na tych samych promptach

Kling 3.0 kontra Runway Gen-4.5 – uczciwy test na tych samych promptach

Prev
Kanada uchwaliła AIDA Act — szczegółowe regulacje AI z mandatami za 3–6 miesięcy

Kanada uchwaliła AIDA Act — szczegółowe regulacje AI z mandatami za 3–6 miesięcy

Next