Jeśli szukasz prostych sposobów na rozpoznawanie filmów generowanych przez AI, muszę Cię rozczarować – szybka lista z niezawodnymi wskazówkami tutaj nie istnieje. Czasy, gdy AI tworzyła groteskowe wideo, jak np. sztuczne nagranie Willa Smitha jedzącego spaghetti, już minęły. Obecnie istnieją narzędzia pozwalające na tworzenie przekonujących, fotorealistycznych filmów za pomocą kilku kliknięć.
Na ten moment filmy generowane przez AI są jeszcze stosunkowo nową technologią w porównaniu do tekstów, obrazów i dźwięków, które powstają dzięki AI, ponieważ osiągnięcie realistycznych szczegółów wymaga dużej ilości wysokiej jakości danych. Jak zauważył profesor Siwei Lyu z Uniwersytetu w Buffalo, „nie ma zasadniczych przeszkód w zdobyciu lepszych danych”, choć jest to praca wymagająca dużych nakładów pracy.
Możemy spodziewać się, że filmy generowane przez AI szybko staną się bardziej zaawansowane, eliminując charakterystyczne wady – jak nieregularnie zmieniające się twarze czy zniekształcone obiekty. Kluczem do rozpoznania filmów tworzonych przez AI jest więc wiedza o technologii. „Świadomość, że technologie AI rozwijają się i że to, co widzimy, może być generowane przez AI, jest ważniejsze niż konkretne wskazówki,” mówi Lyu, który prowadzi Laboratorium Mediów Forensycznych na Uniwersytecie Buffalo.
Orientacja w zasobach internetu pełnym „bałaganu AI” wymaga ostrożności i zdrowego rozsądku, aby zauważyć, kiedy coś może być podejrzane. To najlepsza obrona przed byciem oszukanym przez głęboko fałszowane filmy, dezinformację lub zwykłe niskiej jakości treści. Rozwijanie tej umiejętności jest trudne, bo wirtualny świat robi wszystko, by przyciągnąć naszą uwagę, ale dobra wiadomość jest taka, że można wykształcić „instynkt detekcji AI”.
Negar Kamali, badaczka AI na Northwestern University, zauważa: „Studiując [obrazy generowane przez AI], ludzie mogą poprawić swoją wiedzę o AI. Nawet jeśli nie widzę żadnych charakterystycznych wad, mój mózg od razu myśli: Coś jest nie tak.”
Na co zwracać uwagę: Filmy impostorowe a filmy tekst-obraz
Zanim zaczniemy analizować rozpoznawanie filmów generowanych przez AI, warto rozróżnić ich dwa główne rodzaje: filmy impostorowe oraz filmy generowane przez modele dyfuzji tekst-obraz.
Filmy impostorowe
Filmy impostorowe to nagrania edytowane przez AI, w których całkowicie zmienia się twarz danej osoby na twarz kogoś innego (zwykle celebryty lub polityka) i podkłada inne wypowiedzi. Często stosuje się też technikę synchronizacji ust, w której subtelnie zmienia się ruch warg osoby i zastępuje ją innym dźwiękiem.
Filmy impostorowe są zazwyczaj przekonujące, ponieważ technologia ta jest stosunkowo stara i opiera się na istniejącym materiale, zamiast tworzyć coś od podstaw. Przykładem były wirusowe filmy z Tomem Cruise’em – dzięki profesjonalnemu naśladowcy i precyzyjnej edycji wyglądały wyjątkowo autentycznie. Dziś istnieje wiele aplikacji, które umożliwiają takie działania i mogą nawet dodawać audio na podstawie krótkiego fragmentu znalezionego w internecie.
Jeśli podejrzewasz, że masz do czynienia z deepfake, zwróć uwagę na format wideo. Tego typu filmy są zwykle ujęciami „gadającej głowy”, gdzie widoczna jest tylko głowa i ramiona mówcy. Jak mówi Hany Farid, profesor z Uniwersytetu Kalifornijskiego w Berkeley, aby rozpoznać zamianę twarzy, warto przyjrzeć się artefaktom wzdłuż konturu twarzy, zwłaszcza gdy głowa jest odchylona.
W przypadku synchronizacji ust warto zwrócić uwagę na ruch ust, szczególnie na kształt zębów. W fałszywych nagraniach widzimy osoby o nietypowych kształtach zębów, a czasem ich liczba się zmienia, mówi Lyu. Dolna część twarzy może także wydawać się „płynna” lub przypominająca gumę.
Aruna Sankaranarayanan, badaczka w MIT, obawia się, że głęboko fałszowane filmy mogą wprowadzać w błąd, zwłaszcza gdy dotyczą mniej znanych postaci. „Jeśli nie znamy ich wyglądu czy głosu, trudno jest obalić takie treści” – mówi Sankaranarayanan.
Filmy tekst-obraz
Nowym trendem są modele dyfuzji tekst-obraz, które tworzą filmy na podstawie tekstu lub obrazu. OpenAI wywołało poruszenie swoim generatorem wideo Sora, który według zapewnień może tworzyć realistyczne filmy z prostych poleceń tekstowych.
Na razie jednak technologia ta nie jest jeszcze w pełni gotowa do tworzenia dłuższych, bezbłędnych filmów, dlatego warto zwrócić uwagę na krótkie klipy. Jak zauważa Farid, jeśli wideo ma tylko 10 sekund, powinniśmy być ostrożni. Technologia nie jest jeszcze w stanie tworzyć dłuższych, płynnych nagrań.
Farid radzi także, aby zwracać uwagę na „niespójności czasowe”, np. gdy budynek nagle zmienia wysokość lub kolor, co jest fizycznie niemożliwe. Lyu natomiast zwraca uwagę na zniekształcenia obiektów w tle oraz zmiany rozmiaru postaci.
Kamali sugeruje zwracać uwagę na „socjokulturowe nieprawdopodobieństwa”, czyli sytuacje, które wydają się niepasujące do kontekstu – jak np. Biden i Obama w różowych garniturach.
Artefakty mogą zniknąć, ale zdrowy rozsądek pozostanie
Według Farida, poleganie na określonych cechach jako dowodach, że film został wygenerowany przez AI, może prowadzić do problemów, ponieważ te cechy mogą zostać poprawione. W 2018 roku Lyu odkrył, że w niektórych fałszywych filmach postaci nie mrugają prawidłowo, co szybko stało się wyznacznikiem dla deepfake’ów. Jednak technologia szybko się poprawiła, a mruganie stało się bardziej naturalne.
Budowanie świadomości, że coś może być generowane przez AI, prowadzi do podejmowania dalszych kroków. „Sprawdź, kto udostępnił to wideo, czy ta osoba jest wiarygodna, czy są inne źródła weryfikujące to samo” – mówi Lyu. Farid dodaje, że kluczowe jest, skąd czerpiemy informacje.
Nawet słabej jakości obrazy AI mogą mieć wpływ na emocje odbiorców, jak zauważa Farid, odnosząc się do obrazów AI przedstawiających rzekome huragany. Dlatego warto unikać czerpania wiadomości wyłącznie z mediów społecznościowych.
Jeśli podejrzewasz, że masz do czynienia z treścią generowaną przez AI, sprawdź, czy inne źródła również ją udostępniają i czy wyglądają podobnie. Jak mówi Lyu, „deepfake wygląda autentycznie tylko z jednego kąta”.