Kiedy OpenAI udostępniło w zeszłym tygodniu swoją aplikację do generowania wideo przy użyciu sztucznej inteligencji – Sora – wprowadzono politykę rezygnacji (opt-out) dla właścicieli praw autorskich.
Oznaczało to, że firmy medialne musiałyby wyraźnie zaznaczyć, jeśli nie chcą, aby ich postacie generowane przez AI pojawiały się w aplikacji. Jednak po kilku dniach, podczas których powstały kontrowersyjne materiały z postaciami takimi jak SpongeBob stylizowany na nazistę czy Pikachu w roli przestępcy, dyrektor generalny OpenAI, Sam Altman, ogłosił zmianę kursu – teraz to właściciele praw będą decydować o sposobie wykorzystania swoich postaci.
Zapytany o przyczyny tej zmiany, Altman przyznał, że wynikła ona z rozmów z zainteresowanymi stronami i zasugerował, że nie spodziewał się takiej reakcji społecznej.
“Teoria tego, jak ludzie będą to odbierać, różniła się od rzeczywistych reakcji po zobaczeniu efektów” – powiedział Altman. “Okazało się, że różni się to od obrazów bardziej, niż ludzie się spodziewali.”
Czym jest Sora?
Aplikacja Sora, przypominająca TikToka, oferuje nieskończone przewijanie treści oraz możliwość tworzenia dziesięciosekundowych filmów z dźwiękiem – praktycznie o dowolnej tematyce. Użytkownicy mogą tworzyć własne wersje siebie generowane przez AI (nazywane cyfrowymi wizerunkami/awatarami/udziałami/sylwetkami, cameo) oraz wykorzystywać wizerunki innych osób, jeśli otrzymali na to zgodę. Choć system stara się ograniczać przedstawianie osób spoza aplikacji, instrukcje tekstowe (prompty tekstowe) okazały się w pełni zdolne do generowania postaci chronionych prawami autorskimi.
Altman przyznał, że wielu właścicieli praw jest zainteresowanych technologią, ale chcą “znacznie więcej kontroli“. Dodał, że Sora “stała się bardzo popularna bardzo szybko. Myśleliśmy, że możemy spowolnić tempo wzrostu; to się nie wydarzyło.”
Niuanse związane z wizerunkiem
Wśród wczesnych użytkowników systemu Altman był zaskoczony tym, że ludzie mają ambiwalentne (lub: mieszane) uczucia wobec udostępniania swoich wizerunków generowanych przez AI. Spodziewał się jednoznacznych decyzji – albo tak, albo nie – tymczasem okazało się, że temat jest znacznie bardziej złożony. To doprowadziło do wprowadzenia dodatkowych ograniczeń.
Wielu użytkowników zmieniło zdanie na temat publicznego udostępniania swoich cyfrowych awatarów (cameo), ponieważ – jak wyjaśnił Altman – “nie chcą, aby ich wizerunek wypowiadał obraźliwe rzeczy lub treści, które uważają za głęboko problematyczne.”
Bill Peebles, szef zespołu Sora w OpenAI, poinformował w niedzielę na platformie X, że zespół “usłyszał od wielu osób, które chcą udostępnić swoje cyfrowe awatary wszystkim, ale zachować kontrolę nad ich wykorzystaniem“. Teraz użytkownicy mogą określić zasady użycia swojego wizerunku poprzez instrukcje tekstowe, na przykład: “nie umieszczaj mnie w filmach dotyczących polityki” czy “nie pozwalaj mi wypowiadać tego słowa.”
Problemy ze znakiem wodnym i dezinformacją
Peebles zapowiedział również, że zespół pracuje nad uczynieniem znaku wodnego Sora “wyraźniejszym i bardziej widocznym” na pobieranych filmach. Wielu obserwatorów wyraża obawy dotyczące potencjalnego kryzysu dezinformacji wynikającego z hiperrealistycznych wideo generowanych przez AI – szczególnie gdy znak wodny wskazujący na sztuczne pochodzenie materiału nie jest wystarczająco duży i można go łatwo usunąć, zgodnie z licznymi poradnikami (tutorialami) dostępnymi online.
“Wiem również, że ludzie już znajdują sposoby na jego usuwanie” – przyznał Altman podczas poniedziałkowej sesji pytań i odpowiedzi (Q&A).
Kontrowersyjne podejście do bezpieczeństwa Sora 2
Podczas swojego przemówienia na DevDay Altman ogłosił natychmiastowe udostępnienie podglądu Sora 2 w API (interfejsie programowania aplikacji) OpenAI, umożliwiając programistom dostęp do tego samego modelu, który zasila Sora 2, i tworzenie ultrarealistycznych filmów AI na własne potrzeby – prawdopodobnie bez jakiegokolwiek znaku wodnego. Gdy zapytano go o zabezpieczenia dla Sora 2 w API, Altman nie udzielił konkretnej odpowiedzi.
Altman przedstawił początkowe trudności jako szansę na naukę. “Niedługo nie będziemy już mieli jedynego dobrego modelu wideo, a powstanie mnóstwo filmów bez naszych zabezpieczeń, i to jest w porządku, tak działa świat” – powiedział. Dodał, że firma może wykorzystać ten czas, aby pomóc społeczeństwu zrozumieć, że “zasady gry się zmieniły, możemy teraz generować niemal nierozróżnialne wideo, i trzeba być na to gotowym.”
Krytyka podejścia “najpierw wypuść, potem napraw”
To kontrowersyjne stanowisko, szczególnie dla dyrektora generalnego (CEO) firmy zajmującej się AI. Od zawsze sztuczna inteligencja była wykorzystywana w sposób nieproporcjonalnie wpływający na mniejszości i grupy wrażliwe – od niesłusznych aresztowań po pornografię zemsty generowaną przez AI.
OpenAI ma wprowadzone pewne zabezpieczenia dla Sora, ale historia – w tym ostatni tydzień – pokazuje, że ludzie znajdą sposoby na ich obejście. Narzędzia do usuwania znaków wodnych już się rozprzestrzeniają w sieci. Choć instrukcje tekstowe nie pozwalają na generowanie konkretnej twarzy bez pozwolenia, podobno ludzie już znaleźli sposoby na obejście tej zasady, tworząc wystarczająco podobne wizerunki do wywoływania strachu, składania gróźb czy tworzenia sugestywnych filmów.
Zapytany, czy plany OpenAI oznaczają podejście “ruszaj szybko i psuj rzeczy” (lub: “działaj szybko i wprowadzaj poprawki“), Altman odpowiedział: “Wcale nie“, dodając, że użytkownicy krytykują Sora za bycie “zbyt restrykcyjnym” i “cenzuralnym“. Stwierdził, że firma rozpoczyna w sposób konserwatywny i “z czasem znajdzie sposoby, aby pozwolić na więcej.”
Przyszłość i infrastruktura
Altman przyznał, że zarabianie na Sora “nie jest w mojej pierwszej dziesiątce obaw, ale… oczywiście kiedyś musimy być bardzo zyskowni, i jesteśmy pewni i cierpliwi, że tam dotrzemy.” Obecnie firma jest w fazie “agresywnego inwestowania.”
Greg Brockman, prezes OpenAI, był pod wrażeniem krzywej adopcji Sora – jeszcze bardziej intensywnej niż w przypadku ChatGPT. Aplikacja konsekwentnie utrzymuje się na szczycie listy darmowych aplikacji w App Store firmy Apple. “To wskazuje na przyszłość – na coś, do czego wciąż wracamy: będziemy potrzebować większej mocy obliczeniowej” – powiedział. “To do pewnego stopnia lekcja numer jeden z dotychczasowego uruchomienia.”

