Dziennik Gazeta Prawana logo

Sztuczna inteligencja halucynuje i uczy się "oszukiwać". Naukowcy: Mamy problem

24 czerwca 2024, 14:00
Ten tekst przeczytasz w 3 minuty
praca, sztuczna inteligencja, robot
Naukowcy chcą badać AI pod kątem umiejętności celowego wprowadzania człowieka w błąd/ShutterStock
W jakim kierunku rozwinie się sztuczna inteligencja? Ostatni rok wraz z gwałtownie rosnącą popularnością chatbotów przyniósł także nowe obawy. Obok możliwości związanych z obróbką danych przez AI, pojawia się coraz częściej pytanie o fact-checking i zakres kreatywności sztucznej inteligencji. 

Czy chat GPT potrafi przyznać się do niewiedzy?

Użytkownicy posługujący się chatem GPT zdążyli zauważyć, że narzędzie nie jest pozbawione wad. Pomimo korzystania z ogromnej – i wciąż poszerzanej – bazy danych, zdarza się, że chat zamiast informacji o braku danych udziela odpowiedzi "kreatywnie błędnych". Mówiąc wprost, program konfabuluje, aby "uzupełnić lukę niewiedzy". Problem polega na tym, że kreatywne, ale błędne treści mogą pojawić się jako odpowiedzi na precyzyjne zapytania. Zdaniem naukowców jest to jeden z elementów rozwoju "samouczącego się" programu. To potwierdza również konieczność weryfikowania treści tworzonych przez AI – szczególnie w kategoriach typu medycyna lub prawo. W kontekście rozwoju sztucznej inteligencji pojawia się też nowe wyzwanie.

Na czym polega halucynowanie AI?

Eksperci pracujący ze sztuczną inteligencją wyjaśniają, że program niekoniecznie kłamie, aby wprowadzić w błąd, ale może podawać błędne odpowiedzi, bo jest przekonany o ich prawdziwości. "Często halucynacje są powiązane z brakiem wiedzy modelu na jakiś temat" – wyjaśnia dr Jan Kocoń z Katedry Sztucznej Inteligencji Politechniki Wrocławskiej na łamach portalu pwr.edu.pl. 

Zdaniem eksperta halucynacje AI powstają m.in., gdy model ma dostęp do ograniczonej liczby tekstów na dany temat: "Coś modelowi świta w temacie, więc odpowiada. Natomiast nie ma świadomości swojej niewiedzy. I wtedy mamy halucynację, czyli nieprawdziwą odpowiedź podaną z dużą pewnością". Zdaniem doktora Koconia najnowsze modele sztucznej inteligencji będą optymalizowane w taki sposób, by być bardziej "świadome" swojej niewiedzy i w przypadku braku dostępu do weryfikowalnych danych udzielać odpowiedzi: "nie wiem".

Program szkolony do blefowania i wygrywania?

Możliwościom rozwoju sztucznej inteligencji przygląda się Guardian opisując wyniki najnowszych badań, prowadzonych przez naukowców z Massachusetts Institute of Technology (MIT). Badaczy zainteresowały przypadki, w których programy AI wykazują tendencję do oszukiwania przeciwników (np. w trakcie gry), blefują lub są w stanie naśladować ludzkie zachowania. "Zagrożenie, jakie stwarza AI dla społeczeństwa, będzie rosło w miarę rozwoju umiejętności systemów do oszustwa" – wyjaśnił na łamach portalu dr Peter Park. 

W opisanym przez Guardian badaniu analizowano program Cicero stworzony przez firmę Meta (właściciela Facebooka), a testowany jako "uczestnik" wersji online strategicznej gry Dyplomacja. Jak podaje Meta, Cicero nie tylko był w stanie dorównać innym graczom, ale osiągnął poziom top 10 proc. najlepszych uczestników gry. Zespół któremu przewodził dr Park odkrył, że Cicero w trakcie gry potrafił "kłamać z premedytacją i zmawiać się z innymi graczami w celu tworzenia spisków". Program potrafił także naśladować ludzkie zachowania np. tworzyć wymówki. "Odkryliśmy, że sztuczna inteligencja Meta nauczyła się być mistrzem oszustwa" – wyjaśnił dr Park podsumowując wyniki badań.

Nowe regulacje konieczne?

Wraz z publikacją wyników badań wezwano do zaprojektowania regulacji rządowych, które wezmą pod uwagę niebezpieczeństwa związane z nowymi umiejętnościami AI. Naukowcy wskazali m.in. na niebezpieczeństwo fałszowania wyborów (np. poprzez tworzenie fake newsów) i wykorzystywania sztucznej inteligencji w celu oszustw. Autorzy badania podkreślili również, że jeśli AI udoskonali umiejętności "zwodzenia" ludzie mogą w przyszłości stracić kontrolę nad modelami sztucznej inteligencji.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło dziennik.pl
Zapisz się na newsletter
Świadczenia, emerytury, podatki, zmiany przepisów, newsy gospodarcze... To wszystko i wiele więcej znajdziesz w newsletterze Dziennik Radzi. Chcesz się dowiedzieć, kto może przejść na wcześniejszą emeryturę? A może jakie ulgi można odliczyć od podatku? Kto może otrzymać środki w ramach renty wdowiej? Zapisz się do naszego newslettera i bądź na bieżąco!

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj