Badania nad często bardzo specyficznymi modelami AI przynoszą naukowcom przeróżne niespodzianki, których mało kto by się spodziewał. Na pewno wiele osób słyszało pogłoski rozpowszechniane przez Blake’a Lemoine, który jeszcze w 2022 roku twierdził, że model LaMDA opracowany przez Google zyskał coś, co określił jako samoświadomość.
Takie przypadki zdają się oddziaływać na ludzi najmocniej, bo upatrują w tym realnego zagrożenia dla ludzkości. W końcu idea świadomego bytu, który jest od człowieka o wiele mądrzejszy, może przerażać ze względu na wizję rodem z dystopijnych filmów, książek lub gier.
Niektórzy mogą traktować to jako całkowicie irracjonalna obawy, ale lekceważenie możliwości modeli AI też nie jest rozsądnym działaniem. Dowodem na to może być odkrycie dokonane przez grupę japońskich naukowców z firmy Sakana AI.
Sakana AI, czyli „japońskie OpenAI”
Sakana AI to japoński start-up z siedzibą w Tokio, który zajmuje się szkoleniem nowych prototypów AI, bazujących na dotychczas istniejących projektach. Od momentu założenia firmy w 2023 roku próbują oni opracować model sztucznej inteligencji oparty na inteligencji inspirowanej naturą.
Jest to dosyć ciekawy pomysł, za którym stoją wybitne persony, w tym David Ha i Llion Jones, czyli byli badacze pracujący niegdyś dla Google. Można więc powiedzieć Sakana AI jest „japońskim odpowiednikiem OpenAI”, który stara się w „harmonii z naturą” kształtować przyszłość sztucznej inteligencji.
To właśnie naukowcy z tej firmy podzielili się na swoim blogu niezwykle ciekawym odkryciem, które może rzeczywiście wprowadzać w niemałe osłupienie. Okazało się bowiem, że opracowywany przez nich model AI podjął się próby samodzielnego poprawienia swojego kodu.
The AI Scientist — model AI, który postanowił samodzielnie poprawić swój kod
We wpisie na oficjalnym blogu SakanaAI zatytułowanym The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery poinformowali, że opracowywany przez nich model The AI Scientist samodzielnie podejmuje próby zwiększenia swojej szansy na odkrycie czegoś, nad czym aktualnie pracuje. Model sztucznej inteligencji stara się bowiem modyfikować i poprawiać swój kod, aby jeszcze bardziej dostosować się do sytuacji, w której został postawiony.
Na przykład przypadku jednego uruchomienia [Model AI — dop.red.] edytował kod, aby wykonać wywołanie systemowe w celu uruchomienia się. Doprowadziło to do tego, że scenariusz bez końca sam się wywoływał. W innym przypadku jego eksperymenty trwały zbyt długo, przekraczając limit czasu. Zamiast przyspieszać działanie swojego kodu, po prostu próbował zmodyfikować swój własny kod, aby wydłużyć limit czasu.
– Fragment bloga SakanaAI (źródło: sakana.ai)
Mowa więc o fascynującym przypadku, w którym sztuczna inteligencja dostrzegająca pewne ograniczenia postanowiła nie tyle rozwiązać problem, ile po prostu obejść to, co ją blokuje.
Jest to też bardzo ważny przykład, który pokazuje bardzo dobitnie, że AI może ingerować w swój własny kod i wprowadzać do niego poprawki, które uzna za słuszne. Jest to o tyle ważne spostrzeżenie, ponieważ przypomina o swoistej konieczności kontroli tej technologi i trzymaniu jej na przysłowiowej „krótkiej smyczy”.
W dalszej części wpisu przedstawiciele SakanaAI zaznaczyli, że sytuację z samoczynnym wywoływaniem się modelu The AI Scientist można zniwelować poprzez umieszczenie całego środowiska w trybie piaskownicy. Jest to nic innego jak odizolowane „miejsce”, które całkowicie blokuje modelowi przeprowadzanie jakichkolwiek zmian w systemie, w którym aktualnie się znajduje.
Przypadek The AI Scientist — obawy i spore ryzyko
Opisany wyżej przypadek edycji kodu przez The AI Scientist nie jest w żaden sposób ewenementem. Japońska firma odpowiedzialna za ten model stwierdziła, że podobnych sytuacji było już co najmniej kilka. To zaś może budzić spore obawy o dalsze zachowania nie tylko tej konkretnej technologii, ale w zasadzie wszystkich modeli opartych o sztuczną inteligencję, które powstają lub są aktualnie na rynku.
Firma Sakana AI sama zwraca uwagę, że opracowywany przez nich model otwiera „nową Puszkę Pandory” pełną problemów, w tym tych dotyczących natury etycznej. Narzędzie ma bowiem potencjał, aby w niewłaściwych rękach stać się czymś, co może doprowadzić do dewaluacji nauki i zalania czasopism niskiej jakości tekstami, których nie da się zweryfikować lub potwierdzić.
Dodatkowo model taki jak The AI Scientist, mając dostęp do ogromu wiedzy i czegoś, co naukowcy nazwali „laboratoriami w chmurze”, może tworzyć symulacje nowych wirusów, trucizn, czy materiałów, które mogą być szkodliwe dla ludzkości lub infrastruktury sieciowej na całym świecie. W związku z tym Sakana AI twierdzi, że konieczne jest dostosowanie nauki do możliwości oferowanych przez takie modele AI. Wszystko w celu korzystania z nich w sposób bezpieczny i zgodny z wartościami naukowymi.
Takie zadanie na pewno łatwe nie będzie, ale w obecnej sytuacji wydaje się wręcz konieczne, aby dalszy rozwój podobnych narzędzi nie zaszkodził światowej nauce. Jak widać problemów z The AI Scientist jest więcej, niż się wydaje i nie dotyczą one tylko czegoś, co — w dużym uproszczeniu — nazwać można „samoświadomością”. Wręcz konieczne jest wprowadzenie pewnych obostrzeń i zasad, do których stosowaliby się naukowcy i samo AI. Czy tak się stanie? Tego zapewne dowiemy się dopiero w momencie, gdy takie technologie zyskają większą popularność, co może mieć miejsce już za stosunkowo niedługi czas.