Czy chat GPT potrafi przyznać się do niewiedzy?

Użytkownicy posługujący się chatem GPT zdążyli zauważyć, że narzędzie nie jest pozbawione wad. Pomimo korzystania z ogromnej – i wciąż poszerzanej – bazy danych, zdarza się, że chat zamiast informacji o braku danych udziela odpowiedzi "kreatywnie błędnych". Mówiąc wprost, program konfabuluje, aby "uzupełnić lukę niewiedzy". Problem polega na tym, że kreatywne, ale błędne treści mogą pojawić się jako odpowiedzi na precyzyjne zapytania. Zdaniem naukowców jest to jeden z elementów rozwoju "samouczącego się" programu. To potwierdza również konieczność weryfikowania treści tworzonych przez AI – szczególnie w kategoriach typu medycyna lub prawo. W kontekście rozwoju sztucznej inteligencji pojawia się też nowe wyzwanie.

Na czym polega halucynowanie AI?

Reklama

Eksperci pracujący ze sztuczną inteligencją wyjaśniają, że program niekoniecznie kłamie, aby wprowadzić w błąd, ale może podawać błędne odpowiedzi, bo jest przekonany o ich prawdziwości. "Często halucynacje są powiązane z brakiem wiedzy modelu na jakiś temat" – wyjaśnia dr Jan Kocoń z Katedry Sztucznej Inteligencji Politechniki Wrocławskiej na łamach portalu pwr.edu.pl.

Reklama

Zdaniem eksperta halucynacje AI powstają m.in., gdy model ma dostęp do ograniczonej liczby tekstów na dany temat: "Coś modelowi świta w temacie, więc odpowiada. Natomiast nie ma świadomości swojej niewiedzy. I wtedy mamy halucynację, czyli nieprawdziwą odpowiedź podaną z dużą pewnością". Zdaniem doktora Koconia najnowsze modele sztucznej inteligencji będą optymalizowane w taki sposób, by być bardziej "świadome" swojej niewiedzy i w przypadku braku dostępu do weryfikowalnych danych udzielać odpowiedzi: "nie wiem".

Program szkolony do blefowania i wygrywania?

Możliwościom rozwoju sztucznej inteligencji przygląda się Guardian opisując wyniki najnowszych badań, prowadzonych przez naukowców z Massachusetts Institute of Technology (MIT). Badaczy zainteresowały przypadki, w których programy AI wykazują tendencję do oszukiwania przeciwników (np. w trakcie gry), blefują lub są w stanie naśladować ludzkie zachowania. "Zagrożenie, jakie stwarza AI dla społeczeństwa, będzie rosło w miarę rozwoju umiejętności systemów do oszustwa" – wyjaśnił na łamach portalu dr Peter Park.

W opisanym przez Guardian badaniu analizowano program Cicero stworzony przez firmę Meta (właściciela Facebooka), a testowany jako "uczestnik" wersji online strategicznej gry Dyplomacja. Jak podaje Meta, Cicero nie tylko był w stanie dorównać innym graczom, ale osiągnął poziom top 10 proc. najlepszych uczestników gry. Zespół któremu przewodził dr Park odkrył, że Cicero w trakcie gry potrafił "kłamać z premedytacją i zmawiać się z innymi graczami w celu tworzenia spisków". Program potrafił także naśladować ludzkie zachowania np. tworzyć wymówki. "Odkryliśmy, że sztuczna inteligencja Meta nauczyła się być mistrzem oszustwa" – wyjaśnił dr Park podsumowując wyniki badań.

Nowe regulacje konieczne?

Wraz z publikacją wyników badań wezwano do zaprojektowania regulacji rządowych, które wezmą pod uwagę niebezpieczeństwa związane z nowymi umiejętnościami AI. Naukowcy wskazali m.in. na niebezpieczeństwo fałszowania wyborów (np. poprzez tworzenie fake newsów) i wykorzystywania sztucznej inteligencji w celu oszustw. Autorzy badania podkreślili również, że jeśli AI udoskonali umiejętności "zwodzenia" ludzie mogą w przyszłości stracić kontrolę nad modelami sztucznej inteligencji.