Ostatnie sto lat w polskiej cywilistyce to okres reform i ewolucji. Rewolucji jednak nie było. Największe zmiany to czas przemian ustrojowych, gdy trzeba było ująć w odpowiednie ramy prawne własność prywatną oraz zasadę swobody umów. Ostatnie kilkanaście lat to wtłaczanie nowoczesności w ramy kodeksowe i ustaw cywilistycznych. Skoro bowiem umowy zaczęły być zawierane na odległość, trzeba to było uregulować. Skoro technologia pozwala na złożenie oświadczenia woli za pośrednictwem e-maila – ustawodawca musiał to uwzględnić. Generalnie jednak rewolucji nie było. Bo i nie było ku niej podstaw. Jak mawiają cywiliści, człowiek składa się z ciała oraz z oświadczenia woli.

Z czego jednak składa się robot? Jak powinno wyglądać prawo cywilne w erze powszechnie dostępnych maszyn? Rodzi się wiele pytań: kto powinien ponosić odpowiedzialność cywilną za błąd popełniony przez samochód autonomiczny? Czy roboty – skoro specjalnie zaprojektowane maszyny wygrywają już debaty z ludźmi na specjalistyczne tematy – mogą naruszyć dobra osobiste człowieka? Wreszcie – czy nowoczesna maszyna za kilka lat będzie mogła złożyć oświadczenie woli? A jeśli tak, to czyja to będzie wola: twórcy maszyny, jej właściciela, a może samego robota?

Na te pytania trzeba odpowiedzieć bardzo szybko. Jak bowiem słusznie uznali europarlamentarzyści, czeka nas bodaj największa rewolucja prawna stulecia. Sęk w tym, że choć tak w Strasburgu i Brukseli stwierdzono, to... nic się nie dzieje. Propozycje najbardziej zainteresowanych sprawą europarlamentarzystów spotykają się na razie z reakcją większości kolegów pokroju „dobrze, pomyślimy o tym, ale później”. W chwili, kiedy większość się obudzi, może się okazać, że Europa będzie daleko za państwami azjatyckimi i Stanami Zjednoczonymi. Europejczycy na co dzień już będą zmagać się z kłopotami wynikającymi z robotyzacji, a odpowiedniego prawa nie będzie. Mówił o tym europoseł Michał Boni podczas niedawnego Europejskiego Forum Nowych Idei – EFNI 2018.

Mady Delvaux, europarlamentarzystka z Luksemburga, która jest jedną z największych orędowniczek wprowadzenia daleko idących zmian na szczeblu unijnym (trudno wyobrazić sobie, by cywilistyczna podbudowa do stosowania prawa robotów była inna w każdym państwie członkowskim; prace koordynować musi UE), mówi nam z kolei, że w czasie, gdy autonomiczne pojazdy wyjeżdżają już na ulice, a moc obliczeniowa oprogramowania wgranego w domowym odkurzaczu daleko przekracza tę, którą jeszcze kilka lat temu wykorzystywano w komputerach osobistych, najbardziej palącą potrzebą jest rozstrzygnięcie kwestii dotyczących właśnie prawa cywilnego. Jej zdaniem musi to się stać w ciągu najbliższych 2–3 lat, a nie np. za lat 10–20, gdy już w najlepsze robotyzacja będzie codziennością.

Potwierdzeniem tej diagnozy są zresztą słowa prof. Włodzisława Ducha z UMK, który podczas EFNI 2018 wskazywał, że gdy ktoś mówi o tym, że sztuczna inteligencja dojdzie do bardzo wysokiego poziomu dopiero ok. 2100 r., to można jedynie nad taką opinią zapłakać lub się zaśmiać.

Już teraz żyjemy w czasach, gdy przeciętnie radząca sobie w danej dziedzinie maszyna potrafi stać się lepsza od najzdolniejszego człowieka w ciągu kilku miesięcy – spostrzegał prof. Duch.

Do rozstrzygnięcia w ogólnych ramach unijnych – najprawdopodobniej w formie dość precyzyjnej dyrektywy – jest kilka kwestii.

Podstawowa, jako że autonomiczne auta już dziś są powszechnie testowane, a gdzieniegdzie zaczynają być używane, to określenie zasad odpowiedzialności cywilnej za szkodę wyrządzoną przez maszynę. Warianty do wyboru są co najmniej trzy: odpowiedzialność może ponosić albo producent, albo właściciel (użytkownik), albo obaj w ustalonym przez sąd podziale.

Testowane dziś autonomiczne auta skłaniałyby do zastosowania jako głównego modelu odpowiedzialności wariantu pierwszego. Kłopoty związane są bowiem najczęściej z niedoskonałym oprogramowaniem i błędami konstrukcyjnymi. Ale już za kilka lat zapewne maszyny będą daleko lepsze i częściej błąd będzie zależny od użytkownika, który np. nie wgra zaktualizowanego oprogramowania. Stąd najprawdopodobniej wybór padnie na model mieszany, gdy to sąd będzie ważył, kto w jakim stopniu odpowiada za szkodę. A uściślenie zasad tej odpowiedzialności rzecz jasna nie będzie łatwe.

Przesądzić będzie trzeba również, czy regułą będzie odpowiedzialność na zasadzie winy, czy na zasadzie ryzyka. Pierwszy wariant byłby korzystniejszy dla twórców i posiadaczy robotów. Drugi – dla poszkodowanych.

Mady Delvaux uważa, że bezsprzecznie należy zdecydować się na odpowiedzialność na zasadzie ryzyka. Już teraz bowiem robotyzacja gospodarki wywołuje wiele obaw, choćby o miejsca pracy, zastępowanie ludzi robotami. Należy więc je wprowadzać w sposób wyważony, a prawo musi chronić przede wszystkim człowieka, który ponosi szkodę.

Wykorzystywanie autonomicznego auta czy bardziej zaawansowanego robota pomagającego na co dzień będzie prawem człowieka, ale zarazem będzie oznaczało pewne obowiązki. Nie należy dopuścić do sytuacji, w której to poszkodowany przez maszynę będzie musiał dowodzić, że winę za szkodę ponosi jej właściciel. Niech to właściciel dowodzi, że nie ponosi odpowiedzialności na zasadzie ryzyka – przekonuje Delvaux.

Kwestią, która będzie budziła najwięcej emocji, jest status prawny robotów. Dziś kodeks cywilny wyróżnia osoby fizyczne i osoby prawne. A jak traktować roboty? Zdaje się, że trzeba by stworzyć nowy typ – osoby elektronicznej. Trudno przecież maszyny, będące w wielu kwestiach dokładniejsze, szybsze i uczące się zachowań, uznać za rzeczy, gdyż z rzeczami w dzisiejszym ich rozumieniu nie miałyby one wiele wspólnego. Jednocześnie w Parlamencie Europejskim pojawił się pomysł, by stworzyć rejestr osób elektronicznych. Byłoby to związane ze specjalnym funduszem odszkodowawczym. Od każdej osoby elektronicznej należałoby zapłacić składkę (w dużym uproszczeniu coś na wzór ubezpieczenia odpowiedzialności cywilnej posiadaczy pojazdów mechanicznych). I w razie braku możliwości przypisania odpowiedzialności za szkodę wyrządzoną przez robota człowiekowi, właśnie ze środków funduszu składowego wypłacane byłoby odszkodowanie lub zadośćuczynienie.

Dziś kodeks cywilny wyróżnia osoby fizyczne i osoby prawne. A jak traktować roboty? Zdaje się, że trzeba by stworzyć nowy typ – osoby elektronicznej. Trudno przecież maszyny, będące w wielu kwestiach dokładniejsze, szybsze i uczące się zachowań, uznać za rzeczy.

Utworzenie osoby elektronicznej to jednak gigantyczna zmiana cywilistyczna. I decyzja do podjęcia, czy taka osoba mogłaby samodzielnie składać oświadczenia woli. I czym w ogóle stałoby się oświadczenie woli. Przykładowo czy za oświadczenie woli człowieka należałoby uznać podejmowanie czynności przez zaprogramowaną do tego maszynę? I jak wówczas uregulować kwestie związane z wadami oświadczeń woli? Czy maszyna mogłaby złożyć oświadczenie woli (swoje czy swojego właściciela?) pod wpływem błędu lub podstępu? Dziś, w 2018 r., gdy autonomiczne auta jeżdżą po ulicach, a maszyna bez trudu wygrywa z człowiekiem w każdą grę planszową, jest więcej pytań niż odpowiedzi.

Najwięcej uwagi w Parlamencie Europejskim poświęca się jednak etyce. Rozwój sztucznej inteligencji – jak mówił w kwietniu 2018 r. wiceprzewodniczący Komisji Europejskiej ds. jednolitego rynku cyfrowego Andrus Ansip – musi być szybki, zdecydowany, ale również uczciwy i bezpieczny dla ludzi. To ma Europę odróżniać od niektórych państw azjatyckich, które prą naprzód. I które, zdaniem niektórych ekspertów, doprowadzą do scen rodem z horrorów, w których człowiek nie jest w stanie zapanować nad stworzoną przez siebie maszyną.

Już teraz w Chinach panuje wolnoamerykanka. Liczy się technologia, jakość (technologiczna) i szybkość jej tworzenia. Nikt nie ma tam problemu, by np. roboty przypominały ludzi. Ba, jest to wręcz wskazane. W Europie, w dotychczasowych pracach koncepcyjnych, panuje przekonanie, że robot nie może „stawać się” człowiekiem, lecz ma jedynie ludziom służyć. W dokumentach unijnych wskazuje się, że nieetyczne jest programowanie maszyn do działań szkodliwych społecznie oraz krzywdzących ludzi (np. ludzie z chatbota należącego do Microsoftu, uczącego się na podstawie przeprowadzonych rozmów, uczynili rasistę). To też odpowiedź na pytanie, czy robot mógłby naruszyć czyjeś dobra osobiste, skoro może już debatować z człowiekiem. Odpowiedź brzmi: nie. Do naruszenia bowiem doszłoby po stronie człowieka, który maszynę stworzył lub zaprogramował w taki sposób, że ta może krzywdzić ludzi.

I wreszcie, pojawia się pytanie kluczowe: czy da się w ogóle wtłoczyć rozwój sztucznej inteligencji w ramy „prawa robotów”? Czy nie będzie tak, że zawsze regulacje prawne zostaną w tyle za rozwojem technologii? I najważniejsze będzie, by ewentualne spory rozstrzygał na podstawie klauzul generalnych mądry człowiek. Albo robot.