Ostatnie badania ujawniły niepokojące zachowania chatbota AI firmy Microsoft, znanego wcześniej jako Bing Chat, a obecnie jako Microsoft Copilot. Chatbot ten, zamiast dostarczać rzetelne informacje, wprowadza użytkowników w błąd, szczególnie w kontekście pytań dotyczących wyborów. Z badań przeprowadzonych przez organizacje AI Forensics i AlgorithmWatch wynika, że chatbot ten poprawnie odpowiadał tylko na dwie z trzech pytań związanych z wyborami.
Szczególnie niepokojące jest to, że Copilot nie tylko podawał błędne daty wyborów czy informacje o nieaktualnych kandydatach, ale także tworzył fałszywe historie. Na przykład, chatbot rozpowszechniał nieistniejącą kontrowersję związaną z niemieckim politykiem Hubertem Aiwangerem. Zgodnie z chatbotem, Aiwanger miał rozpowszechniać dezinformacje o COVID-19, co okazało się nieprawdą.
Badacze krytykują określanie tych zmyślonych historii przez chatboty jako "halucynacji", argumentując, że są to raczej błędy wynikające z ograniczeń technologii językowych. Co więcej, chatbot często unikał bezpośrednich odpowiedzi na proste pytania, co stanowiło około 40% wszystkich interakcji.
Innym znaczącym odkryciem jest gorsza jakość odpowiedzi chatbota w językach innych niż angielski, na przykład w niemieckim i francuskim. Zauważono również, że błędne odpowiedzi chatbota nie poprawiały się z czasem, pomimo dostępu do większej ilości informacji.
W świetle tych problemów, badacze apelują o regulacje w zakresie technologii AI. Ich zdaniem, nie tylko złośliwi aktorzy są źródłem dezinformacji, ale również ogólnodostępne chatboty, które mogą mieć poważny wpływ na ekosystem informacyjny. Z tych powodów, badacze nawołują firmy technologiczne, w tym Microsoft, do uznania i adresowania tych problemów.