OpenAI oskarża The New York Times o “zamierzone manipulowanie” swoim chatbotem

OpenAI twierdzi, że gazeta celowo manipulowała chatbotem, aby powtarzał całe fragmenty artykułów gazety, co ma związek z toczącym się procesem o naruszenie praw autorskich, zagrażającym rozwojowi technologii OpenAI.

Spór złożony tuż po świętach Bożego Narodzenia, został nazwany “bezpodstawnym” według wpisu na blogu opublikowanego w poniedziałek przez twórców ChataGPT. Dodano również, że gazeta nie “opowiada pełnej historii”.

W złożonym 27 grudnia pozwie, amerykańska firma medialna oskarżyła startup i jego głównego sponsora, Microsoft, o “bezpłatne korzystanie” z milionów artykułów do budowy swojej technologii zdolnej do szczegółowego reagowania na zapytania.

Prawa autorskie stanowią coraz większy problem dla firm AI, takich jak OpenAI, których modele pracują, przetwarzając ogromne ilości danych z internetu. Pozew, domagający się miliardów dolarów odszkodowania, twierdzi, że OpenAI czerpie zyski z “eksploatacji i przywłaszczania intelektualnej własności The Times”.

Wkrótce potem dwóch autorów non-fiction zgłosiło zbiorowe pozew, twierdząc, że OpenAI naruszyło ich prawa autorskie, szkoląc swoje duże modele językowe na ich dziełach. Znani autorzy beletrystyki, w tym John Grisham i Jodi Picoult, wcześniej wnieśli podobny pozew.

W swoim blogu OpenAI twierdzi, że po raz pierwszy usłyszało o pozwie od Timesa z artykułu opublikowanego przez gazetę 27 grudnia. Przed tym, jak twierdzi firma, toczyły się produktywne dyskusje na temat potencjalnego partnerstwa, a OpenAI wyjaśniło, że treść Timesa “nie wniosła istotnego wkładu” w szkolenie istniejących modeli.

W ramach sprawy o naruszenie praw autorskich, Times twierdził, że chatbot OpenAI powtarzał całe fragmenty jego artykułów – zjawisko opisane przez OpenAI jako “niezamierzone zapamiętywanie”, którego firma aktywnie unikała.

Times wezwał także OpenAI do zniszczenia wszelkich danych szkoleniowych i modeli chatbota, które wykorzystały jego chronione prawa autorskie.

Przykłady przedstawione przez Times pochodzą z archiwalnych artykułów opublikowanych na wielu stronach trzecich, według OpenAI. “Wygląda na to, że Times celowo manipulował pytaniami, często zawierając długie fragmenty artykułów, aby skłonić nasz model do powtarzania” – napisało OpenAI.

“Nasze modele zazwyczaj nie zachowują się w taki sposób, jak sugeruje The New York Times, co sugeruje, że albo nakazali modelowi powtarzanie, albo wybrali swoje przykłady spośród wielu prób” – dodało OpenAI.

“Ian Crosby, partner w kancelarii Susman Godfrey, reprezentującej The New York Times, stwierdził: “Blog przyznaje, że OpenAI używało pracy Timesa, razem z pracą wielu innych, do budowy ChatGPT”.

OpenAI próbowało “bezprawnie skorzystać z masowego inwestowania Timesa w dziennikarstwo, używając go do budowy zamiennych produktów bez zgody ani zapłaty” – stwierdziło w pozwie przedsiębiorstwo.

“To nie jest uczciwe wykorzystanie pod żadnym względem” – dodał Crosby.

OpenAI i inne firmy AI argumentują, że przetwarzanie ogromnych ilości dostępnych publicznie danych z internetu stanowi chronione “uczciwe wykorzystanie” zgodnie z amerykańskim prawem autorskim.

Narastający konflikt ma miejsce w momencie, gdy OpenAI stara się zawrzeć szereg umów z innymi organizacjami informacyjnymi w celu licencjonowania ich treści. Na początku grudnia firma osiągnęła przełomową umowę z niemieckim wydawcą Axel Springer, wartą dziesiątki milionów euro rocznie, która może stanowić wzór dla przyszłych porozumień między wydawcami a firmami AI.

“W ujęciu OpenAI, pozew The New York Times jest bezpodstawny. Niemniej jednak mamy nadzieję na konstruktywne partnerstwo z The New York Times i szanujemy jego długą historię” – napisało OpenAI w poniedziałkowym blogu.

Udostępnij ten artykuł
Poprzedni

Bitwa o prywatność biometryczną

Następny

Zabezpieczone: Szkolenie

Czytaj również