Żyjemy w czasach, w którym roboty i systemy wyposażone w sztuczną inteligencję (SI) zaczęły zastępować ludzi, co szczególnie widoczne jest na rynku pracy. Automatyzacja sprawia, że zastępowani są pracownicy nie tylko fizyczni, ale także umysłowi – prawnicy, czy maklerzy. Już w 2017 roku Goldman Sachs w Nowym Jorku z 600 zatrudnionych maklerów, pozostawił dwóch, a resztę pracy powierzył około 200 inżynierom komputerowym. Według jednego z członków zarządu banku Marty Chaveza – czterech maklerów można zamienić na jeden komputer i programistę – efekt będzie ten sam, a nawet lepszy.
Roboty potrafią naprawdę dużo, można je szkolić, a coraz więcej z nich może samodzielnie podejmować decyzje, a także wykonywać działalność kreatywną dotychczas będącą tylko domeną człowieka – tworzyć muzykę, pisać artykuły, czy malować obrazy. To spowodowało, że zaczęto zastanawiać się w jaki sposób przygotować społeczeństwo na zmiany związane z wprowadzaniem SI na coraz większe obszary naszego życia – również na przeobrażający się rynek pracy.
Bill Gates zaproponował, żeby opodatkować roboty, tłumacząc, że praca wykonywana przez maszynę powinna być opodatkowana, w taki sam sposób jak ta wykonywana przez człowieka. Niektórzy – tak jak Elon Musk – opowiadają się za rozwiązaniem przyznania ludziom tzw. bezwarunkowego dochodu podstawowego. Idea ta zakłada, że każda osoba powinna otrzymać taką samą kwotę pieniędzy – niezależnie od wieku, sytuacji materialnej, zarobków, która zapewni minimum egzystencji, aby każdego było stać na zagwarantowanie podstawowych potrzeb, np. mieszkania, jedzenia, ubrania. Musk przewiduje, że rozwiązanie to będzie konieczne ze względu na to, że będzie coraz mniej pracy i mniej zawodów, które może wykonywać człowiek.
Od stycznia 2017 roku do końca 2018 roku w Finlandii przeprowadzono eksperyment, gdzie uczestnikom zapewniono dochód podstawowy w wysokości 560 euro miesięcznie. W 2019 roku Finlandia przedstawiła pierwsze wyniki eksperymentu. Wprowadzenie dochodu podstawowego nie wpłynęło pozytywnie na zatrudnienie, ale poprawiło poczucie dobrobytu u świadczeniobiorców. Eksperyment zakończył się niepowodzeniem, gdyż uczestnicy nie byli zmotywowani do poszukiwania pracy.
Przewiduje się, że automatyzacja zmieni cały świat, a nowa rewolucja przemysłowa, której aktualnie jesteśmy świadkami, prawdopodobnie dotknie każdą warstwę społeczną. SI i systemy autonomiczne (te które są zdolne do podejmowania decyzji i ich realizacji, niezależnie od kontroli zewnętrznej lub wpływu z zewnątrz;) powodują również powstanie szeregu nowych wyzwań prawnych.
Analizy problemów jakie może przynieść sztuczna inteligencja dokonują także organizacje międzynarodowe i unijne. W 2017 roku powstały Przepisy Prawa Cywilnego dotyczące Robotyki – Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL), które wprost mówią, że mając na uwadze, że istnieje możliwość, że w perspektywie długoterminowej sztuczna inteligencja przewyższy ludzkie zdolności intelektualne, konieczne jest rozważenie, czy wprowadzić instrument prawny nadający robotom specjalny status prawny w perspektywie długoterminowej, aby przynajmniej najbardziej rozwiniętym robotom autonomicznym można było nadać status osób elektronicznych odpowiedzialnych za naprawianie wszelkich szkód, jakie mogłyby wyrządzić, oraz ewentualne stosowanie osobowości elektronicznej w przypadkach podejmowania przez roboty autonomicznych decyzji lub ich niezależnych interakcji z osobami trzecimi. We wspomnianym dokumencie wzywa się również twórców maszyn, by stosowali prawa robotyki Isaaca Asimova, przedstawione w jego opowiadaniu – Zabawa w berka (1942). Brzmiące następująco:
1.Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2.Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3.Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
W akcie przedstawionym w UE miejsce znalazł również kodeks postępowania dla naukowców i projektantów, który określa podstawowe zasady etyczne, jakie należy przestrzegać podczas tworzenia, programowania i wykorzystywania robotów. Postulowane jest włączenie tych zasad do uregulowań prawnych państw członkowskich.
Dokument spotkał się ze sprzeciwem. Eksperci zajmujący się SI z takich obszarów jak etyka, prawo, czy medycyna wystosowali list otwarty do Komisji Europejskiej, w którym wyrazili zaniepokojenie przyznaniem statusu osobowości elektronicznej robotom, gdyż sama konstrukcja prawna osobowości prawnej związana jest z osobą fizyczną (i z osobą prawną, która bezpośrednio związana jest z człowiekiem), a to oznaczałby, że robot posiadałby prawa człowieka, takie jak prawo do godności, prawo do obywatelstwa. Byłoby to sprzeczne z Kartą Praw Podstawowych UE, czy konwencjami chroniącymi prawa człowieka. List można przeczytać tu.
Aby kontynuować dalsze rozważania o osobowości elektronicznej, należy odpowiedzieć na pytanie, czym właściwie jest ten termin.
W powszechnym użyciu występuje termin osobowość prawna oznaczająca zdolność bycia podmiotem praw i obowiązków oraz dokonywania we własnym imieniu czynności prawnych1. Aktualnie może dotyczyć osoby ludzkiej (osoby fizycznej), a osoby prawne (np. spółki) uzyskują (co do zasady) osobowość prawną z chwilą wpisania ich do właściwego rejestru. Osoby prawne działają (kształtują swoje prawa i obowiązki) za pośrednictwem zarządzających nimi osób (jako organów osoby prawnej).
W celu prowadzenia dalszych rozważań, należy podkreślić, że termin osobowości elektronicznej będzie odnosił się tylko do robotów, które zostały wyposażone w sztuczną inteligencję.
Dlaczego przyznanie robotom takiego statusu jest ważne? Powodów jest kilka. A główny dotyczy określenia kto jest odpowiedzialny za szkody wyrządzone przez robota. Dotychczas konstrukcja ta była przewidziana tylko dla ludzi. Czy robot, który podejmuje autonomiczne decyzje może być odpowiedzialny za swoje czyny? Czy może być pociągnięty do odpowiedzialności za szkody w mieniu, za wyrządzenie krzywdy ludziom?
Niektórzy uważają, że odpowiedzialność mogłaby dotyczyć osoby, która posługuje się rzeczą, ale czy jest to konstrukcja odpowiednia, kiedy robot, który samodzielnie podejmuje decyzje i właściciel nie ma nad nim kontroli? Drugą opcją jest pociągnięcie do odpowiedzialności twórcy maszyny. Ale czy faktycznie można obciążyć go odpowiedzialnością, kiedy robot podejmie decyzje w przypadkach nieprzewidzianych przez swojego kreatora? Czy może trzecie rozwiązanie – robot odpowiedzialny za swoje czyny nie byłoby najłatwiejszym i najbardziej sprawiedliwym środkiem? Jednakże przyznanie osobowości elektronicznej robotom rodziłoby kolejne pytania i wątpliwości prawne– czy w takim razie robot ma prawa i obowiązki? Czy można mówić, że robot może mieć prawo własności? Czy może płacić podatki tak jak ludzie?
Dlaczego kwestia odpowiedzialności może być skomplikowana? Bo może dotyczyć dwóch przypadków – pierwszy, gdy dysponent maszyny korzysta z niej nieostrożnie lub używa jej żeby wyrządzić szkodę – wtedy odpowiedzialność jest łatwa do określenia i dotyczy osoby odpowiedzialnej za robota. Drugi przypadek może być bardziej skomplikowany i występuje wtedy, gdy robot się usamodzielni i zachowuje się w sposób inny niż przewidywał twórca. W takim wypadku odpowiedzialność mógłby ponosić zakład ubezpieczeń. Postulowane jest utworzenie specjalnego funduszu ubezpieczeniowego, który byłby związany z maszyną i z którego wypłacano by odszkodowanie osobom poszkodowanym przez działanie robota. Proponowane jest też stworzenie specjalnego rejestru robotów, z którego wynikałoby, kto jest odpowiedzialny za maszynę i kto opłaca za nią ubezpieczenie.
Ale nie tylko odpowiedzialność jest kwestią problematyczną. Z osobowością elektroniczną związane byłby również zagadnienia zobowiązań np. kontrakty zawierane przez roboty. Czy jeśli robot zawarłby umowę z człowiekiem byłaby ona wiążąca? Czy właściciel może być reprezentowany przez swojego robota, gdy ten zawiera umowę w oparciu o autonomiczną decyzję? Przyznanie statusu osobowości prawnej bardzo ułatwiłoby rozstrzygnięcie tych problemów. Być może można byłoby rozpatrywać działania robota, tak jak działania osoby prawnej, niezależnie od jego właściciela. Maszyny tak jak w przypadku osób prawnych służyłby właścicielom do osiągnięcia określonego celu. Ich osobowość – tak jak osób prawnych- byłaby niejako fikcją.
W 2017 roku humanoidalny robot wyposażony w sztuczną inteligencję – Sophia, wyprodukowany przez firmę Hanson Robotics z Hongkongu, został obywatelem Arabii Saudyjskiej, wpisując się tym samym w trend upodmiotowienia. Robot szybko zyskał popularność i zaczął udzielać wywiadów na całym świecie. Jeden z wywiadów można obejrzeć tutaj.
Niedawno – pod koniec 2019 roku – Europejska Grupa Ekspertów ds.odpowiedzialności i nowych technologii przy Komisji Europejskiej opublikowała raport – LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES, w którym stwierdzono, że dla celów odpowiedzialności nie jest konieczne nadanie autonomicznym systemom prawnym osobowości. Szkody spowodowane przez w pełni autonomiczne technologie mogą być zredukowane do ryzyka, który można przypisać osobom fizycznym lub osobom prawnym. Podejście pokrywa się z tym zaproponowanym w Polsce.
Na gruncie polskim w projekcie Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027 stwierdzono, że: Polska stoi na stanowisku i popiera te kraje, które odmawiają nadania systemom AI statusu obywatelstwa czy osobowości prawnej. Koncept ten jest sprzeczny z ideą Human Centric AI oraz stanem rozwoju systemów AI, a wreszcie wyższego statusu zwierząt nad maszynami. Nadto, Polska opowiada się za koncepcją supremacji człowieka nad systemami AI, a przez to odpowiedzialnością ludzką osobistą lub osób prawnych, których człowiek jest założycielem i zarządcą. Reżim prawa prywatnego międzynarodowego również nie powinien dopuścić czynnego udziału typu sztucznej- inteligentnej osoby prawnej w obrocie prawnym.
Omawiana sprawa budzi wiele konsekwencji. Niektórzy naukowcy sprzeciwiają się przyznaniu robotom praw i obowiązków, które mogą być przyznane dotychczas tylko ludziom, tłumacząc, że ciężko byłoby by stwierdzić, czy może być nosicielem takich dóbr prawnych jak nietykalność cielesna, prywatność. Argumentują również że dopiero kiedy SI rozwinie się do poziomu, w którym robot sam rzeczywiście będzie mógł zrozumieć znaczenie swoich czynów i pokierować swoim postępowaniem, stanie się zdolny do ponoszenia winy na takiej zasadzie jak człowiek. Jednakże na obecnym etapie rozwoju nie ani potrzeby, ani podstaw do nadawania AI osobowości prawnej
Niewykluczone, że prawodawca będzie musiał zmierzyć się z tym problemem, ale jeszcze nie teraz – dopiero, gdy sztuczna inteligencja dorówna ludzkiej.
[1] czynność prawna – czynność konwencjonalna (skonstruowana przez normę prawną) podmiotu prawa cywilnego, zawierająca treść określającą konsekwencje prawne zdarzenia prawnego.