Sztuczna Inteligencja, nawet jeśli przybiera pewne spersonifikowane formy, tak ostatecznie postrzegana jest w zbiorowej świadomości jako coś pozbawionego ludzkich odruchów. Nawet w popkulturze utrwalony został wizerunek robotów, które zyskały samoświadomość, ale ostatecznie nie są w stanie odczuwać żadnych uczuć.
Nie jest to raczej nic nadzwyczajnego, wszakże maszyny — ze swojej natury — nie są w stanie nic czuć. To akurat od zawsze rezerwowane było tylko dla istot żyjących. Możliwe jednak, że niebawem będziemy musieli takie myślenie zakwestionować.
Pojawiające się co jakiś czas projekty związane z AI starają się nam pokazać, że rozwój tej technologi przyśpiesza. A co gdyby cyfrowy człowiek, który napędzany byłby przez sztuczną inteligencję coś czuł?
Antix jako przykład empatycznego cyfrowego człowieka?

Okazuje się, że scenariusz ten nie jest taki nierealny, a przynajmniej w pewnym sensie. Wystarczy spojrzeć na modele asystentów AI, które oferuje platforma Antix — te są w stanie faktycznie wyrażać m.in. sztuczną empatię. Jak to jednak możliwe?
Mówimy tutaj o platformie do tworzenia cyfrowych awatarów ludzi w metaversum. Owi „ludzie” programowani są tak, aby nie tylko rozpoznawać uczucia osób, z którymi piszą, ale także dostosować się do nich przy wchodzeniu w interakcję. Badanie nastroju danego użytkownika odbywa się poprzez słowa, intonację czy mowę ciała. Innymi słowy, wszystko to, czym posługujemy się jako ludzie.
Nie bez znaczenia jest w tym przypadku też sposób, w jaki szkoleni są tacy „cyfrowi ludzie”. Każdy model Antix to unikalny model NFT, który uczy się pewnych zachowań, zdobywa wiedzę i po prostu się zmienia. Dzięki temu jest też w stanie dostosować się do aktualnej sytuacji.
Już sam ten fakt może zaskakiwać, ale firma odpowiedzialna za ten projekt poszła o krok dalej. Wszystkie modele takich ludzi tworzone są za pomocą silnika Unreal Engine 5. To pozwala stworzyć bardziej realistyczne, w pełni wymodelowane personifikację dla AI.
Pewną wyjątkowością Antix jest też fakt, że użytkownicy platformy zyskują możliwość dostosowania cyfrowych awatarów do swoich emocjonalnych zapotrzebowań. W ten sposób cyfrowi ludzie mogą reagować odpowiednim tonem głosu, wykonując właściwe gesty i miny.
Empatyczne AI to ogromny potencjał?
Prace nad urealnieniem systemów emocji u AI postępuje i nie jest to wielka tajemnica. Z czasem faktycznie granica ta może się zacierać, pokazując jednocześnie, że empatii da się nauczyć i roboty będą w stanie odczuwać to samo, co my.
Nie da się ukryć, że jest to scenariusz nieco straszny, ale też dający ogromny potencjał na rozwój wielu sektorów. W końcu empatyczne AI będzie w stanie być lepszym konsultantem albo lepiej pomagać w kwestiach medycznych. Da się nawet zauważyć pewne wykorzystanie takiego AI w korporacjach.
Wiele więc wskazuje na to, że jesteśmy coraz bliżej scenariusza, gdzie AI zyska coś, co możemy nazwać empatią. Ciekawe, jak bardzo wpłynie to na nasze życia i czy kolejny raz przyczyni się do ogromnego skoku w dalszym rozwoju sztucznej inteligencji.