Włoski urząd ochrony danych osobowych (Garante per la Protezione dei Dati Personali) zablokował w piątek ChatGPT. Powód? Aplikacja, która pozwala prowadzić rozmowy z maszyną, rodzi poważne wątpliwości w dziedzinie ochrony danych użytkowników.

Reklama

"Chodzi o wyciek danych"

Jak wynika z informacji, którą opublikował Garante chodzi między innymi o wyciek danych do jakiego doszło 20 marca. Część korzystających z ChatGPT osób zyskała nagle dostęp do tytułów konwersacji oraz danych dotyczących płatności innych użytkowników. Jak wynika z komunikatu OpenAI, awaria systemu trwała kilka godzin. To jednak tylko wierzchołek góry lodowej. Garante ma bowiem wątpliwości co do samej istoty działania chatbota.

Dla potrzeb związanych z Chat-GPT OnypenAI przetwarza dane osobowe nie tylko użytkowników, ale także osób, których dane znalazły się w zasobach wykorzystanych do szkolenia modeli Sztucznej Inteligencji. Włoski regulator zarzuca OpenAI m.in. przetwarzanie tych danych bez podstawy prawnej, a także brak spełnienia obowiązku informacyjnego względem osób, których dane OpenAI przetwarza – mówi Przemysław Barchan, adwokat z kancelarii Barchan Legal.

Tak naprawdę jednak nie wiemy, jaki jest rzeczywisty zakres i skala przetwarzania danych osobowych przez OpenAI, który nie udostępnia żadnych informacji na ten temat, zasłaniając się tajemnicą handlową. To uniemożliwia przeprowadzenie sensownej analizy problemu. Uzyskanie dostępu do tych informacji może być więc tak naprawdę jedną z przyczyn działania włoskiego regulatora – zastanawia się.

OpenAI

OpenAI ma 20 dni na to, by poinformować Garante o środkach wdrożonych w celu wykonania nakazu. Jeśli tego nie zrobi, na firmę może zostać nałożona grzywna w wysokości do 20 mln euro lub 4 proc. całkowitego rocznego globalnego obrotu. Na razie ChatGPT został na terenie Włoch wyłączony. Włoscy użytkownicy mogą dostać się do systemu tylko przy użyciu VPN, programu, który wysyła do operatora informację o łączeniu z terenu innego kraju. Sam Altman, dyrektor zarządzający OpenAI, zapewnił jednak, że postara się sprostać wymaganiom włoskiego regulatora.
Decyzja Garante wzbudziła duże kontrowersje.Matteo Salvini, włoski minister infrastruktury i transportu, nazwał ją "nieproporcjonalną". Zaznaczył też, że blokada stawia kraj w jednym rzędzie z Chinami. Zwrócił przy tym uwagę na niekonsekwencję – regulator zablokował jedynie ChatGPT, tymczasem opierająca się na nim wyszukiwarka internetowa Bing pozostaje dostępna.
Co do decyzji nie ma zgody między regulatorami w pozostałych europejskich krajach. Jak wynika z informacji serwisu NL Times, podobnego zakazu nie zamierza wprowadzać holenderski urząd. Tymczasem jak podaje BBC, irlandzka Data Protection Commission (DPC) chce dowiedzieć się od włoskich kolegów, na czym dokładnie polegają ich wątpliwości. Chce też skoordynować działania pozostałych urzędów ochrony danych. Co na to polski UODO? Do zamknięcia wydania nie otrzymaliśmy w tej sprawie komentarza. Janusz Cieszyński, odpowiedzialny za cyberbezpieczeństwo sekretarz stanu w KPRM, najpierw zasugerował na Twitterze, że włoski urząd wziął się za regulacje "na rympał". W niedzielę zaczął jednak szukać na LinkedIn ekspertów w dziedzinie sztucznej inteligencji.

"Potrzebna jest tu rozmowa i mądra regulacja"

W mojej ocenie krajowe urzędy ochrony danych osobowych powinny stać na straży prywatności naszych danych. W tej mierze działania włoskiego regulatora wydają się słuszne. Jestem przekonany, że duże modele językowe, na których opiera się działanie chata GPT, można w większej mierze szkolić bez użycia danych osobowych, w tym danych użytkowników – mówi Barchan.
Przed podobnymi wyzwaniami stoi zresztą nie tylko OpenAI. Swoje duże modele językowe, które są podstawą działania chatbotów, mają też inne amerykańskie firmy, np. Google. Jak słyszymy w jego biurze prasowym, narzędzie zostało wytrenowane "podobnie jak większość obecnie dostępnych modeli" z wykorzystaniem ogólnie dostępnych źródeł. Google nie udostępnił jeszcze swojego Barda w Unii Europejskiej.
Sprawa danych osobowych w kontekście systemów sztucznej inteligencji będzie niebawem jedną z bardziej palących kwestii między Unią Europejską a USA – prognozuje dr Michał Nowakowski, radca prawny w kancelarii Rymarz Zdort Maruta, specjalizujący się w dziedzinie nowych technologii. Moim zdaniem "wyczyszczenie” modeli językowych z danych osobowych Europejczyków jest bardzo trudne, o ile nie niemożliwe. Dlatego potrzebna jest tu rozmowa i mądra regulacja, która jednak postawi w centrum człowieka – dodaje.
Na firmę może zostać nałożona grzywna do 20 mln euro.