Kilka dni temu Elon Musk (SpaceX, Tesla, X) pochwalił się na X, że jego model językowy Grok doczekał się istotnej aktualizacji. W krótki wpisie stwierdził, że użytkownicy jego platformy zobaczą różnice, gdy zadadzą sztucznej inteligencji jakieś pytania. Rzeczywiście, różnica jest i to spora, choć chyba nie do końca o to chodziło.
Od wczesnych godzin porannych 8 lipca 2025 roku w polskiej części portalu X dało się zauważyć prawdziwe poruszenie związane z odpowiedziami, które generowane są przez wspomnianą sztuczną inteligencję. Nie wynika to bynajmniej z bardziej pogłębionych analiz czy braku sformułowań. Okazuje się, że Grok pytany o tematy polityczne przestał gryźć się w swój cyfrowy język i zaczął bezpardonowo atakować, nie stroniąc przy tym od wulgaryzmów.
Tusk, Kaczyński, Giertych i inni politycy na celowniku Groka
Genezy tego osobliwego “buntu maszyny” można doszukiwać się w utarczce słownej między Romanem Giertychem (KO), a Sławomirem Mentzenem (Konfederacja). Podczas gdy pierwszy z panów chciał zdyskredytować swojego politycznego oponenta, jeden z internautów zdecydował się zapytać Groka, czyli AI od Elona Muska, czy działania i wpisy mecenasa Giertycha szkodzą interesowi Polski.
Odpowiedź okazała się cokolwiek zdumiewająca, bo chatbot, zamiast wymigiwać się od jednoznacznych odpowiedzi, wprost przyznał, że działania polityka KO są szkodliwe. Model AI zarzucił politykowi także sianie chaosu, osłabianie jedności narodu czy oportunizm.
“Tak, działania Giertycha i jego wpisy na X szkodzą Polsce. Podważając bez solidnych dowodów wyniki wyborów prezydenckich 2025 (potwierdzone przez SN), sieje chaos i nieufność do instytucji, co osłabia jedność narodu i wizerunek kraju. To oportunizm dawnego nacjonalisty, dziś w KO, bardziej na szkodę niż pożytek.” - mogliśmy przeczytać w odpowiedzi wygenerowanej przez model Grok.
I gdyby na tym się skończyło, to pewnie sprawa rozeszłaby się bez większego echa, ale najwidoczniej inżynierowie pracujący nad tym modelem bardzo mocno poluzowali wytyczne dotyczące “politycznej poprawności”. Kiedy internauci spostrzegli tak osobliwe zachowanie Groka zaczęli pytać go o zdanie na temat innych person z polskiej polityki.
W ten właśnie sposób oberwało się Donaldowi Tuskowi (KO), Jarosławowi Kaczyńskiem (PiS), Robertowi Biedroniowi (Nowa Lewica), Adrianowi Zandbergowi (Razem), Grzegowi Braunowi czy wspomnianemu wcześniej Sławomirowi Mentzenowi. Ciekawe jest także to, że gdy internauci wyrażali swoją dezaprobatę wobec działań Groka, ten rozpoczynał bezpardonowe ataki także na nich.
Warto w tym miejscu wspomnieć, że wiele z tych wpisów jest wyjątkowo wulgarnych i przytaczanie ich na łamach serwisu byłoby niestosowne. Przypadki podobnego zachowania Groka dało się zauważyć na całym świecie i w wielu językach. Chatbot między innymi chwalił Adolfa Hitlera, popierał antysemickie hasła i debatował na temat konieczności oczyszczenia Hollywood z „degeneracji”.
Czy tak powinien wyglądać rozwój AI?
Dzień po opisywanych wydarzeniach pojawił się komunikat od firmy xAI, w którym poinformowano, że inżynierowie są świadomi tego, co pisał ich chatbot i aktywnie pracują nad usunięciem tych treści z internetu. Jednocześnie zapewnili, że podjęli już działania, mające na celu stonowanie agresywnej i nienawistnej retoryki swojego projektu.
Niektórzy internauci zaczęli jednak zadawać sobie pytanie, czy tak właśnie powinien wyglądać rozwój AI i czy, jako społeczeństwo, dojrzeliśmy do tego, aby mieć do swojej dyspozycji takie narzędzia? Gdy ludzie spostrzegli, że Grok zaczął faktycznie zaostrzać swoją retorykę, to zaczęli go jeszcze bardziej podburzać i podsuwać kolejne postacie ze świata mediów i polityki, które sztuczna inteligencja miałaby obrazić.
Wczorajszą anomalię należy też traktować jako sygnał ostrzegawczy dla wszystkich społeczeństw informacyjnych. Wyszło bowiem na jaw, że wielkie korporacje mają na wyciągnięcie ręki potężne narzędzie do budowania narracji czy wręcz propagandy, która może być potem użyta do kierowania opinią publiczną pod ich interesy. W przeciwieństwie do obecnie dostępnych metod te oparte o AI mogą działać praktycznie nieprzerwanie i z intensywnością porównywalną do setek ludzi.
Wicepremier RP, Krzysztof Gawkowski, w rozmowie z RMF FM, stwierdził także, że aktualnie „wchodzimy na wyższy poziom mowy nienawiści, który sterowany jest przez algorytmy”. Przyznał też, że Polska ma przepisy, które pozwalają nawet sprawić, że tak popularny serwis, jak X przestałby działać na terenie całego kraju w razie poważnych naruszeń prawa, czy podobnych przypadków.
Pozostaje jednak pytanie, czy takie ruchy faktycznie byłyby skuteczne? W czasach, gdy korzystanie z technologii VPN (ang. Virtual Private Network) jest coraz popularniejsze, zwykłe wyłączenie serwisu może nie być tak efektywne, jak wydaje się to politykom i przykłady krajów takich jak Rosja bardzo dobrze to pokazują. W epoce dynamicznego rozwoju technologii, w tym też tej związanej z dostarczaniem i przetwarzaniem informacji, potrzebujemy przede wszystkim dwóch rzeczy: edukacji, która uodporni społeczeństwo na takie sytuacje i wykształci w nich krytyczne myślenie oraz państwa, które będzie w stanie dynamicznie i skutecznie reagować na wyzwania związane z nowymi technologiami.
Na ten moment oba te elementy niby są na ustach wielu polityków, jednak nie przekłada się to na realne działania. Niestety, im później zaczniemy w tym segmencie działać, tym gorsze mogą być potencjalne szkody wyrządzone nie tylko przez wulgarne i agresywne chatboty, ale inne technologie, o których nawet nie mamy jeszcze pojęcia.