Marek Krześnicki

Prawo lubi spokój i tradycję, technologie natomiast – to żywioł i dynamiczny rozwój. Nic dziwnego zatem, że zazwyczaj to prawa dopasowujemy do zmian technologiczny, a nie odwrotnie. Rozwój sztucznej inteligencji powoduje, że już za kilka lat normą będą kontakty z robotami – jak w serialu „Westworld”. Czy czas na dopasowanie prawa i stworzenie norm dla androidów?

Premiera serialu HBO „Westworld” (całkiem dobrego, przynajmniej tak piszą koledzy z sPlay) wzbudziła zainteresowanie robotami łudząco podobnymi do ludzi. To, oczywiście, serial s-f dziejący się w dosyć odległej przyszłości – wiele jeszcze wody w Wiśle upłynie, zanim roboty będą wyglądać jak Evan Rachel Wood i James Marsden:

Obecnie, niestety, roboty wyglądają raczej tak:

„Westworld”, roboty i odpowiedzialność za nie

Jednak fabuła „Westworld” daje pretekst do rozważań o tym, jakie wyzwania – pod względem prawnym – niesie ze sobą rozwój robotyki. Pewna wskazówką co do kierunku „trzy prawa robotyki” Isaaca Asimova:

Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Kluczową kwestią, którą będzie należało rozważyć, to ustalenie, czy roboty będą posiadały zdolność prawną. Zdolność prawna to możliwość bycia podmiotem praw i obowiązków – np. posiadania majątku, ale i ponoszenia odpowiedzialności swoje czyny. Jeśli uznamy, że roboty to maszyny jak każde inne, wówczas sprawa odpowiedzialności np. za szkody przez nie wyrządzone będzie rozstrzygana tak, jak to ma miejsce obecnie – w zależności od sytuacji, odpowiadać może producent, właściciel albo użytkownik.

Ale takie podejście jest co najmniej problematyczne. Jak można sobie łatwo wyobrazić, szkoda może być konsekwencją wadliwie działającej sztucznej inteligencji. Może w takiej sytuacji odpowiedzialność np. za pobicie przez krewkiego androida wyglądającego jak Rutger Hauer ponosić powinien twórca oprogramowania? Ale i tutaj nie ma oczywistego rozwiązania. Odpowiedzialność autora za wady programu komputerowego jest dosyć ograniczona (ograniczona kwotą zapłaconą za licencją); ba, nawet naruszenie zasad gwarancji nie niesie za sobą większych konsekwencji:

Jeśli Microsoft naruszy warunki udzielonej ograniczonej gwarancji, jedynym uprawnieniem Licencjobiorcy będzie żądanie naprawy albo wymiany oprogramowania. Zamiast dokonania naprawy albo wymiany oprogramowania Microsoft może zwrócić Licencjobiorcy kwotę zapłaconą przez Licencjobiorcę za oprogramowanie (licencja programu Microsoft Excel 2013)

Programy, utwory i usterki

Koresponduje to z treścią Prawa autorskiego (przypominamy: program komputerowy to utwór, nie rzecz), które stanowi:

Jeżeli zamówiony utwór ma usterki, zamawiający może wyznaczyć twórcy odpowiedni termin do ich usunięcia, a po jego bezskutecznym upływie może od umowy odstąpić lub żądać odpowiedniego obniżenia umówionego wynagrodzenia, chyba że usterki są wynikiem okoliczności, za które twórca nie ponosi odpowiedzialności.

Niektórzy mają wątpliwości, czy pojęcie „zamówiony utwór” dotyczy wyłącznie oprogramowania tworzonego na zamówienie, czy również gotowego programu. Ale nawet jeśli uznać, że i gotowy program zainstalowany na pokładzie (w głowie?) robota spełnia wymogi tego przepisu – to i tak odpowiedzialność na podstawie cytowanego przepisy wygasa po kilku miesiącach od odbioru utworu (programu).

Może zatem właściwsze byłoby ustalenie odpowiedzialności odszkodowawczej na podstawie ogólnych norm kodeksu cywilnego? W końcu art. 415 kodeksu stwierdza, że

Kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia.

Ale i tutaj mam wątpliwości, czy to słuszna droga. Sztuczna inteligencja (np. taka budowana na bazie systemu IBM Watson) to, wg definicji Johna McCarthy’ego „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji„. Zatem istnieje prawdopodobieństwo, graniczące z pewnością, że działania inteligentnych androidów mogą być nieoczekiwane nawet dla twórców oprogramowania. Może sensowniejsze byłoby wprowadzenie… odpowiedzialności samych robotów?

Na pierwszy rzut oka brzmi to absurdalnie: maszyna miałaby sama ponosić odpowiedzialność za swoje czyny, tak jak człowiek? Ale przecież taki sam zarzut moglibyśmy podnieść w stosunku do chociażby równie sztucznych tworów, takich jak spółki z ograniczona odpowiedzialnością czy akcyjne. One w końcu też istnieją jako osobne byty prawne, posiadają swój majątek, odpowiadają samodzielnie za zobowiązania.

Co więcej, w historii znajdziemy przykłady, gdy nie tylko ludzie odpowiadali za swoje czyny. W prawie średniowiecznym zwierzęta (np. świnie) mogły ponosić odpowiedzialność karną, np. za morderstwo.

Czy roboty będą miały PESEL?

A przyznanie robotom zdolności prawnej – niezbędnej, aby ponosiły osobistą odpowiedzialność za swoje czyny, zarówno w zakresie cywilnym, jak i karnym – to dopiero początek prawnej rewolucji. Nowy status konstruowanych przez człowieka urządzeń wymagałby zastanowienia się nad innymi konsekwencjami. Czy androidy powinny posiadać numer PESEL i płacić podatki? A co ze składką na NFZ i ZUS (o ile nie zostanie zlikwidowana w ramach jednolitego podatku dochodowego), w końcu emerytura dla robotów nie śniła się nawet Benderowi z Futuramy – najfajniejszemu robotowi w historii ludzkości.

Ale te wszystkie wątpliwości dotyczą raczej odległej przyszłości. Zanim doczekamy się realiów nakreślonych przez twórców „Westworld”, będziemy mieli dużo czasu i na przyzwyczajenie się do obecności inteligentnych urządzeń, i na ustalenie prawnych zasad regulujących ich obecność.