Anna Korytowska: Deep Agency to baza modelek stworzonych przez sztuczną inteligencję. W założeniu wygenerowany obraz ma zastąpić człowieka - czy to rzeczywiście jest możliwe?

Dr Agnieszka Suchwałko: Jest to możliwe, ale dla tego produktu jeszcze nie teraz. W dalszym ciągu jesteśmy w stanie rozróżnić obrazy wygenerowane przez algorytmy AI od tych stworzonych przez człowieka dla tej usługi. Obecnie na “sztucznych” zdjęciach znajdują się syntetyczne elementy i zaburzenia, które zdradzają ich nierealny charakter. Jednak to tylko kwestia czasu (najbliższych miesięcy), kiedy te obrazy nie będą odróżnialne od rzeczywistych zdjęć, tak jak ma to miejsce obecnie dla wielu dostępnych online generatorów twarzy.

Reklama

Od czego to będzie zależało?

Wszystko będzie zależało od ilości danych dostarczanych przez użytkowników serwisu, którzy akceptując regulamin, zgadzają się na wykorzystanie ich zdjęć do trenowania modeli AI. Efektem uczenia AI na zdjęciach użytkowników będą wygenerowane obrazy, na których szczegółowość detali będzie taka jak w przypadku rzeczywistych zdjęć dobrej jakości. Ale jak wspomniałam, uczenie algorytmów AI jest zależne od ilości i jakości danych pozyskanych od użytkowników serwisu.

Reklama

W czym jeszcze może pomóc sztuczna inteligencja?

AI może być ogromnym wsparciem dla specjalistów z różnych dziedzin w zakresie wszelkich decyzji, które wymagają precyzji i do których poprawnego podjęcia niezbędne jest duże doświadczenie. Obecnie na całym świecie realizowane są setki projektów związanych z chociażby medycyną, w których wykorzystuje się analizę obrazu (computer vision) - jedną z domen AI. Pomaga ona na przykład w analizowaniu danych pochodzących z obrazowania medycznego (rentgen, tomografia i wiele innych), gdzie dany obraz składa się z ogromnej ilości informacji medycznych, ale idzie on w parze z danymi o pacjencie. Lekarz będący ekspertem w swojej dziedzinie (umówmy się, że chodzi o jakiś konkretny rodzaj nowotworu) ma doświadczenie ze swojego regionu (być może kraju), ale przecież ta konkretna choroba występuje na całym świecie. Jej przebieg jest uzależniony od bardzo wielu czynników takich jak zaawansowanie choroby, wiek, płeć, warunki środowiskowe (np. klimat), warunki genetyczne (np. pochodzenie etniczne), inne choroby, tryb życia, waga i wiele innych.

Dr Agnieszka Suchwałko / dziennik.pl
Reklama

Sztuczna inteligencja będzie posiadała wiedzę, której człowiek nie byłby w stanie?

Nie istnieje człowiek, który w ramach swojego doświadczenia miał styczność z pacjentami, którzy reprezentowali różne mieszanki tych czynników, gdyż musiałyby być to setki tysięcy pacjentów. Ale łącząc siły wielu placówek medycznych na całym świecie, które dzielą się danymi o swoich pacjentach (oczywiście zgodnie z RODO) i angażując do analizy algorytmy AI możemy każdego lekarza wesprzeć sugestią co do diagnozy, czy też prognozy dotyczącej pacjenta, którego wyniki badań właśnie otrzymał. Ostateczna ocena wyników badań nadal leży w gestii lekarza. Jeśli jednak wyniki wzbudzają jakąkolwiek wątpliwość, bądź lekarzowi coś umknęło to może uzyskać wskazówkę dzięki której może być bardziej pewny swojego osądu, a może zwróci się po konsultację do innego specjalisty.

Co musi się stać, żeby sztuczna inteligencja działała tak kompleksowo?

Żeby sztuczna inteligencja mogła działać w taki sposób, musi najpierw być nauczona (wytrenowana) na bardzo dużej liczbie przykładów rzeczywistych poprawnie ocenionych przez ludzi dlatego, że algorytmy AI uczą się jedynie odtwarzać to, co poznały. Zatem bez odpowiednio przygotowanej bazy danych, AI będzie wypluwać nam wyniki, których wartość dla medycyny będzie znikoma bądź nawet szkodliwa. O tym jak ważny jest aspekt odpowiedniego doboru danych w medycynie (w tym w AI) pokazała chociażby sytuacja z SARS-CoV-2. Już po wprowadzeniu szczepień w USA zaobserwowano wyższą śmiertelność wśród ludzi z ciemnym kolorem skóry oraz pochodzący z Ameryki Południowej. Później okazało się, iż to było efektem testowania szczepionek na populacjach, które w zbyt małym odsetku uwzględniały te grupy etniczne. Efektem czego był dobór składników szczepionek dobranych najlepiej dla białej populacji. Dokładnie tak samo jest z algorytmami sztucznej inteligencji - jeśli czegoś podczas uczenia dostały mało lub wcale, to tego nie znają i nie umieją samodzielnie uzupełnić.

W wielu przypadkach sztuczna inteligencja może pomóc. Może także zaszkodzić?

AI działa jak miecz obosieczny. Samo w sobie AI nie może zaszkodzić. AI nie jest tutaj problemem. Kwestią nadrzędną jest podejście do trenowania (uczenia) algorytmów sztucznej inteligencji w oparciu o dane i cel, któremu ma AI służyć. Wyobraźmy sobie małe dziecko, które dopiero poznaje świat i uczy się, co to jest “auto”. Jeśli pokażemy mu tylko czerwone osobowe auta, to będzie przekonane, że to ma być właśnie to - ale przecież po naszych ulicach jeżdżą auta w rozmaitych kolorach, a oprócz osobowych są też ciężarówki, autobusy, auta terenowe, dostawcze itd. Zatem nasz szkrab ma dostęp do dużej bazy danych pojęcia “auto” na każdym spacerze przy ulicy. Z danymi do nauki AI jest tak samo! Jeżeli dane są niereprezentatywne (nie zawierają wszystkich możliwych opcji) lub danych jest za mało, to może to przynieść wiele szkód. Ale podkreślam jeszcze raz, samo w sobie AI nie jest problemem. Dlatego też bardzo ważna jest ogromna odpowiedzialność na poziomie przygotowania danych oraz trenowania tych algorytmów. Do tego nie traktowania algorytmów AI jako magicznej różdżki. Nie ma w tym ani krzty magii.

Rewolucja technologiczna i postęp wydają się być gwałtowne, ale czy tak faktycznie jest?

W istocie tak nie jest. Przyspieszenie, które mamy wrażenie obserwować, wynika z logicznego ciągu zdarzeń. Obecnie etapy technologicznej rewolucji trwają krócej i to jest fakt. Wynika to z tego, iż my jako ludzie wyciągamy wnioski również z poprzednich etapów i przekazujemy ją do kolejnych. Wyciągamy też wnioski z wszystkich nieudanych prób, które niejednokrotnie mają zastosowanie gdzieś indziej. Dzięki temu nasza perspektywa staje się szersza, większa, bardziej złożona, a tym samym ścieżki do kolejnych osiągnięć nie zaczynają się od punktu zero.

Najlepszym przykładem tego transferu wiedzy, który napędza zmiany technologiczne, pokazuje kwestia szczepionek SARS-CoV-2. Jeszcze kilka lat temu dowolna szczepionka potrzebowała okresu 10 lat, aby można byłby ją dopuścić do publicznego stosowania. COVID-19 skrócił ten okres w sposób radykalny. Od momentu ujawnienia informacji na temat wirusa SARS-CoV-2 do zezwolenia na podanie pierwszej szczepionki minęło raptem 11 miesięcy.

Jak do tego doszło?

Dzięki zdobytej wcześniej wiedzy z zakresu technologii szczepionek i doświadczeniu związanym z SARS-CoV-1 z początku tego wieku. Badacze mieli zebrany komplet informacji związanych ze szczepionkami typu mRNA. Technologia ta została dogłębnie przebadana, ale nikomu nie opłacało się wprowadzić jej na rynek. Równocześnie zbadano szczegółowo SARS-CoV-1 - koronawirusa należący do rodziny, do której należał również SARS-CoV-2. Szczepionka przeciw SARS-CoV-1 nie była stosowana na globalną skalę, ponieważ ten typ koronawirusa nigdy nie wyszedł poza obręb Azji. Nie doprowadził on do pandemii. Doświadczenie przy opracowaniu tej szczepionki pozwoliły w praktyce na ominięcie badań podstawowych nad COVID-19 i wykonanie punktowych badań potwierdzających istotne elementy. Powstały konglomeraty naukowo-biznesowo-rządowe. Poszczególne rządy (szczególnie rząd USA) wykładały ogromne pieniądze biorąc na siebie wysokie ryzyko tych przedsięwzięć. Stajemy się mądrzejsi dzięki temu, że w przeszłości odrobiliśmy już sporo lekcji. Analogiczna sytuacja ma miejsce w dziedzinie sztucznej inteligencji. Chociaż dotychczas AI nie miała tak spektakularnego wpływu na ludzkość, jak szczepionka na COVID.

A dokąd zmierza sztuczna inteligencja?

Wszystko zależy od tego, jak nią pokierujemy. Przykładem tego jest zamieszanie wokół ChatGPT. Jego przedostatnia wersja (ChatGPT-3) była polem do popisu dla wielu moich znajomych i zupełnie mi obcych ludzi. Prześcigali się w tym, jak i jakie pytanie zadać, aby uzyskać odpowiedź, która ujawni “prawdziwą naturę” tego narzędzia. Niektórym udało się to zrobić. Znów wracamy tu do kwestii danych, które wykorzystane zostały do uczenia ChatGPT. Był on trenowany na wszelkich dostępnych danych, bez żadnych bezpieczników. My na co dzień kierujemy się normami społecznymi, kręgosłupem moralnym. Portale społecznościowe i poczytne witryny internetowe zatrudniają moderatorów, ludzi którzy dbają o jakość treści zamieszczanych przez użytkowników. Nadal jednak w sieci można bez trudu znaleźć treści o dowolnym charakterze, a ChatGPT dostał do treningu wszystko, co dało się znaleźć. Dopiero po niepowodzeniach automatycznego ukierunkowania algorytmu do prezentowania jedynie poprawnych treści zatrudniono ludzi do opanowania sytuacji. I to oni łatali kolejne “dziury”, których wynajdywaniem zajęli się użytkownicy z całego świata.

I jaką lekcję z tej sytuacji można odrobić?

Lekcja z tego jest taka, że jeśli algorytmy AI nakarmimy wszelkimi dostępnymi treściami, to ich odpowiedzi będą odzwierciedlały wszelkie treści. AI nie jest w stanie samodzielnie myśleć, a jedynie odwzorowuje to, czego się nauczy. Potrafi realizować zadania pod warunkiem, że dostarczymy odpowiednie dane i parametry. AI odtwarza. ChatGPT jest dla mnie synonimem zaawansowanego Google’a, który zrobił zestawienie informacji na dany temat, przy bardzo precyzyjnie podanych warunkach. Dla młodych ludzi ChatGPT stał się tym, czym dla poprzednich pokoleń Google. Czatują w sensie szukania informacji - zamiast “googlować”.

Algorytmy AI nigdy nie będą człowiekiem. Nie będą mną, bo nie będą potrafiły napisać tekstu w taki sposób, jak ja to robię. Chyba, że najpierw napiszę odpowiednio wiele tekstów, dzięki którym algorytm nauczy się mojego indywidualnego stylu. Dlatego też w obszarze AI bardzo ważnym elementem jest etyka. Musi być ona na tym polu priorytetem. Wtedy rozwój AI pójdzie w dobrym kierunku. Jeżeli tak nie będzie, to będzie nas ten błąd jako ludzkość sporo kosztować. Mam nadzieję, że nie wymknie się spod kontroli.

Jak sztuczna inteligencja wpłynie na przyszłość?

Już dzisiaj widzimy jak część zadań, które do niedawna znajdowały się w ludzkiej domenie, są wykonywane przez automaty. Tak się dzieje z zadaniami, które nie są obarczone ludzkim subiektywizmem. Tę ewolucję widać najlepiej na przykładzie powtarzalnych monotonnych zadań, które są oparte na danych, np. podejścia do oceny ryzyka kredytowego w instytucjach finansowych, czy też przyznawania odszkodowań po zdarzeniach losowych (wypadki). Obecnie sporo jej procesów jest wykonywana automatycznie. Algorytmy prognozujące odpowiadają za pierwszą linię zabezpieczeń w zakresie oceny ryzyka kredytowego. Przetwarzają one ogromne ilości danych, które pozwalają wstępnie ocenić, czy historia finansowa danej osoby, czy też instytucji jest wiarygodna i można udzielić jej kredytu. Jednak często w takich sytuacjach pojawia się mnóstwo niuansów, niepewności. Na tym etapie człowiek wciąż jest niezbędny.

Niezbędny teraz. W przyszłości może zostać w pewnych obszarach zastąpiony?

Zastosowań AI jest coraz więcej i sprawdzają się znakomicie. Tam, gdzie zadania są powtarzalne i monotonne czy też ryzykowne ze względu na subiektywną ocenę człowieka, wszędzie tam gdzie trudno bądź niewygodnie dotrzeć, tam można spodziewać się, że AI zadomowi się błyskawicznie. Dzięki AI będziemy doświadczać mnóstwa ułatwień, co już widać po palecie rozwiązań z obszaru smart homes. Mamy autonomiczne pojazdy, które do swojego działania wyposażone są w ogromną liczbę czujników, ale do ich oprogramowania nadal niezbędni są ludzie. Jak wrażliwa to dziedzina, znów głównie ze względu na dane, na których są uczone te algorytmy, najlepiej pokazują niestety wypadki z ich udziałem. Zawsze będą zadania, które będą posuwać ludzkość do przodu. Przed długi czas nie będzie możliwe ich tworzenie. A nawet jeżeli AI będzie mógł je tworzyć, to zawsze w pogotowiu będzie człowiek, który będzie sprawdzać ich jakość oraz sensowność. Ponadto trudno mówić o tym, aby kiedykolwiek AI mogła posiąść inteligencję pokroju człowieka. Wynika to z faktu, iż ludzie są obdarzeni inteligencją emocjonalną, której jak wielu twierdzi, nie da się odtworzyć.