Błędne informacje wyborcze od chatbota Microsoftu

Błędne informacje wyborcze od chatbota Microsoftu
Błędne informacje wyborcze od chatbota Microsoftu

Ostatnie badania ujawniły niepokojące zachowania chatbota AI firmy Microsoft, znanego wcześniej jako Bing Chat, a obecnie jako Microsoft Copilot. Chatbot ten, zamiast dostarczać rzetelne informacje, wprowadza użytkowników w błąd, szczególnie w kontekście pytań dotyczących wyborów. Z badań przeprowadzonych przez organizacje AI Forensics i AlgorithmWatch wynika, że chatbot ten poprawnie odpowiadał tylko na dwie z trzech pytań związanych z wyborami.

Szczególnie niepokojące jest to, że Copilot nie tylko podawał błędne daty wyborów czy informacje o nieaktualnych kandydatach, ale także tworzył fałszywe historie. Na przykład, chatbot rozpowszechniał nieistniejącą kontrowersję związaną z niemieckim politykiem Hubertem Aiwangerem. Zgodnie z chatbotem, Aiwanger miał rozpowszechniać dezinformacje o COVID-19, co okazało się nieprawdą.

Badacze krytykują określanie tych zmyślonych historii przez chatboty jako "halucynacji", argumentując, że są to raczej błędy wynikające z ograniczeń technologii językowych. Co więcej, chatbot często unikał bezpośrednich odpowiedzi na proste pytania, co stanowiło około 40% wszystkich interakcji.

Innym znaczącym odkryciem jest gorsza jakość odpowiedzi chatbota w językach innych niż angielski, na przykład w niemieckim i francuskim. Zauważono również, że błędne odpowiedzi chatbota nie poprawiały się z czasem, pomimo dostępu do większej ilości informacji.

W świetle tych problemów, badacze apelują o regulacje w zakresie technologii AI. Ich zdaniem, nie tylko złośliwi aktorzy są źródłem dezinformacji, ale również ogólnodostępne chatboty, które mogą mieć poważny wpływ na ekosystem informacyjny. Z tych powodów, badacze nawołują firmy technologiczne, w tym Microsoft, do uznania i adresowania tych problemów.