Krótka historia osobowości elektronicznej

Brief history of the electronic personality

[eng/pl]

Żyjemy w czasach, w którym roboty i systemy wyposażone w sztuczną inteligencję (SI) zaczęły zastępować ludzi, co szczególnie widoczne jest na rynku pracy. Automatyzacja sprawia, że zastępowani są pracownicy nie tylko fizyczni, ale także umysłowi – prawnicy, czy maklerzy. Już w 2017 roku Goldman Sachs w Nowym Jorku z 600 zatrudnionych maklerów, pozostawił dwóch, a resztę pracy powierzył około 200 inżynierom komputerowym. Według jednego z członków zarządu banku Marty Chaveza – czterech maklerów można zamienić na jeden komputer i programistę – efekt będzie ten sam, a nawet lepszy.

Roboty potrafią naprawdę dużo, można je szkolić, a coraz więcej z nich może samodzielnie podejmować decyzje, a także wykonywać działalność kreatywną dotychczas będącą tylko domeną człowieka – tworzyć muzykę, pisać artykuły, czy malować obrazy. To spowodowało, że zaczęto zastanawiać się w jaki sposób przygotować społeczeństwo na zmiany związane z wprowadzaniem SI na coraz większe obszary naszego życia – również na przeobrażający się rynek pracy.

Bill Gates zaproponował, żeby opodatkować roboty, tłumacząc, że praca wykonywana przez maszynę powinna być opodatkowana, w taki sam sposób jak ta wykonywana przez człowieka. Niektórzy – tak jak Elon Musk – opowiadają się za rozwiązaniem przyznania ludziom tzw. bezwarunkowego dochodu podstawowego. Idea ta zakłada, że każda osoba powinna otrzymać taką samą kwotę pieniędzy – niezależnie od wieku, sytuacji materialnej, zarobków, która zapewni minimum egzystencji, aby każdego było stać na zagwarantowanie podstawowych potrzeb, np. mieszkania, jedzenia, ubrania. Musk przewiduje, że rozwiązanie to będzie konieczne ze względu na to, że będzie coraz mniej pracy i mniej zawodów, które może wykonywać człowiek.

Od stycznia 2017 roku do końca 2018 roku w Finlandii przeprowadzono eksperyment, gdzie uczestnikom zapewniono dochód podstawowy w wysokości 560 euro miesięcznie. W 2019 roku Finlandia przedstawiła pierwsze wyniki eksperymentu. Wprowadzenie dochodu podstawowego nie wpłynęło pozytywnie na zatrudnienie, ale poprawiło poczucie dobrobytu u świadczeniobiorców. Eksperyment zakończył się niepowodzeniem, gdyż uczestnicy nie byli zmotywowani do poszukiwania pracy.

Przewiduje się, że automatyzacja zmieni cały świat, a nowa rewolucja przemysłowa, której aktualnie jesteśmy świadkami, prawdopodobnie dotknie każdą warstwę społeczną. SI i systemy autonomiczne (te które są zdolne do podejmowania decyzji i ich realizacji, niezależnie od kontroli zewnętrznej lub wpływu z zewnątrz;) powodują również powstanie szeregu nowych wyzwań prawnych.

Analizy problemów jakie może przynieść sztuczna inteligencja dokonują także organizacje międzynarodowe i unijne. W 2017 roku powstały Przepisy Prawa Cywilnego dotyczące Robotyki – Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL), które wprost mówią, że mając na uwadze, że istnieje możliwość, że w perspektywie długoterminowej sztuczna inteligencja przewyższy ludzkie zdolności intelektualne, konieczne jest rozważenie, czy wprowadzić instrument prawny nadający robotom specjalny status prawny w perspektywie długoterminowej, aby przynajmniej najbardziej rozwiniętym robotom autonomicznym można było nadać status osób elektronicznych odpowiedzialnych za naprawianie wszelkich szkód, jakie mogłyby wyrządzić, oraz ewentualne stosowanie osobowości elektronicznej w przypadkach podejmowania przez roboty autonomicznych decyzji lub ich niezależnych interakcji z osobami trzecimi. We wspomnianym dokumencie wzywa się również twórców maszyn, by stosowali prawa robotyki Isaaca Asimova, przedstawione w jego opowiadaniu – Zabawa w berka (1942). Brzmiące następująco:

1.Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

2.Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.

3.Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

W akcie przedstawionym w UE miejsce znalazł również kodeks postępowania dla naukowców i projektantów, który określa podstawowe zasady etyczne, jakie należy przestrzegać podczas tworzenia, programowania i wykorzystywania robotów. Postulowane jest włączenie tych zasad do uregulowań prawnych państw członkowskich.

Dokument spotkał się ze sprzeciwem. Eksperci zajmujący się SI z takich obszarów jak etyka, prawo, czy medycyna wystosowali list otwarty do Komisji Europejskiej, w którym wyrazili zaniepokojenie przyznaniem statusu osobowości elektronicznej robotom, gdyż sama konstrukcja prawna osobowości prawnej związana jest z osobą fizyczną (i z osobą prawną, która bezpośrednio związana jest z człowiekiem), a to oznaczałby, że robot posiadałby prawa człowieka, takie jak prawo do godności, prawo do obywatelstwa. Byłoby to sprzeczne z Kartą Praw Podstawowych UE, czy konwencjami chroniącymi prawa człowieka. List można przeczytać tu.

Aby kontynuować dalsze rozważania o osobowości elektronicznej, należy odpowiedzieć na pytanie, czym właściwie jest ten termin.

W powszechnym użyciu występuje termin osobowość prawna oznaczająca zdolność bycia podmiotem praw i obowiązków oraz dokonywania we własnym imieniu czynności prawnych1. Aktualnie może dotyczyć osoby ludzkiej (osoby fizycznej), a osoby prawne (np. spółki) uzyskują (co do zasady) osobowość prawną z chwilą wpisania ich do właściwego rejestru. Osoby prawne działają (kształtują swoje prawa i obowiązki) za pośrednictwem zarządzających nimi osób (jako organów osoby prawnej).

W celu prowadzenia dalszych rozważań, należy podkreślić, że termin osobowości elektronicznej będzie odnosił się tylko do robotów, które zostały wyposażone w sztuczną inteligencję.

Dlaczego przyznanie robotom takiego statusu jest ważne? Powodów jest kilka. A główny dotyczy określenia kto jest odpowiedzialny za szkody wyrządzone przez robota. Dotychczas konstrukcja ta była przewidziana tylko dla ludzi. Czy robot, który podejmuje autonomiczne decyzje może być odpowiedzialny za swoje czyny? Czy może być pociągnięty do odpowiedzialności za szkody w mieniu, za wyrządzenie krzywdy ludziom?

Niektórzy uważają, że odpowiedzialność mogłaby dotyczyć osoby, która posługuje się rzeczą, ale czy jest to konstrukcja odpowiednia, kiedy robot, który samodzielnie podejmuje decyzje i właściciel nie ma nad nim kontroli? Drugą opcją jest pociągnięcie do odpowiedzialności twórcy maszyny. Ale czy faktycznie można obciążyć go odpowiedzialnością, kiedy robot podejmie decyzje w przypadkach nieprzewidzianych przez swojego kreatora? Czy może trzecie rozwiązanie – robot odpowiedzialny za swoje czyny nie byłoby najłatwiejszym i najbardziej sprawiedliwym środkiem? Jednakże przyznanie osobowości elektronicznej robotom rodziłoby kolejne pytania i wątpliwości prawne– czy w takim razie robot ma prawa i obowiązki? Czy można mówić, że robot może mieć prawo własności? Czy może płacić podatki tak jak ludzie?

Dlaczego kwestia odpowiedzialności może być skomplikowana? Bo może dotyczyć dwóch przypadków – pierwszy, gdy dysponent maszyny korzysta z niej nieostrożnie lub używa jej żeby wyrządzić szkodę – wtedy odpowiedzialność jest łatwa do określenia i dotyczy osoby odpowiedzialnej za robota. Drugi przypadek może być bardziej skomplikowany i występuje wtedy, gdy robot się usamodzielni i zachowuje się w sposób inny niż przewidywał twórca. W takim wypadku odpowiedzialność mógłby ponosić zakład ubezpieczeń. Postulowane jest utworzenie specjalnego funduszu ubezpieczeniowego, który byłby związany z maszyną i z którego wypłacano by odszkodowanie osobom poszkodowanym przez działanie robota. Proponowane jest też stworzenie specjalnego rejestru robotów, z którego wynikałoby, kto jest odpowiedzialny za maszynę i kto opłaca za nią ubezpieczenie.

Ale nie tylko odpowiedzialność jest kwestią problematyczną. Z osobowością elektroniczną związane byłby również zagadnienia zobowiązań np. kontrakty zawierane przez roboty. Czy jeśli robot zawarłby umowę z człowiekiem byłaby ona wiążąca? Czy właściciel może być reprezentowany przez swojego robota, gdy ten zawiera umowę w oparciu o autonomiczną decyzję? Przyznanie statusu osobowości prawnej bardzo ułatwiłoby rozstrzygnięcie tych problemów. Być może można byłoby rozpatrywać działania robota, tak jak działania osoby prawnej, niezależnie od jego właściciela. Maszyny tak jak w przypadku osób prawnych służyłby właścicielom do osiągnięcia określonego celu. Ich osobowość – tak jak osób prawnych- byłaby niejako fikcją.

W 2017 roku humanoidalny robot wyposażony w sztuczną inteligencję – Sophia, wyprodukowany przez firmę Hanson Robotics z Hongkongu, został obywatelem Arabii Saudyjskiej, wpisując się tym samym w trend upodmiotowienia. Robot szybko zyskał popularność i zaczął udzielać wywiadów na całym świecie. Jeden z wywiadów można obejrzeć tutaj.

Niedawno – pod koniec 2019 roku – Europejska Grupa Ekspertów ds.odpowiedzialności i nowych technologii przy Komisji Europejskiej opublikowała raport – LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES, w którym stwierdzono, że dla celów odpowiedzialności nie jest konieczne nadanie autonomicznym systemom prawnym osobowości. Szkody spowodowane przez w pełni autonomiczne technologie mogą być zredukowane do ryzyka, który można przypisać osobom fizycznym lub osobom prawnym. Podejście pokrywa się z tym zaproponowanym w Polsce.

Na gruncie polskim w projekcie Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027 stwierdzono, że: Polska stoi na stanowisku i popiera te kraje, które odmawiają nadania systemom AI statusu obywatelstwa czy osobowości prawnej. Koncept ten jest sprzeczny z ideą Human Centric AI oraz stanem rozwoju systemów AI, a wreszcie wyższego statusu zwierząt nad maszynami. Nadto, Polska opowiada się za koncepcją supremacji człowieka nad systemami AI, a przez to odpowiedzialnością ludzką osobistą lub osób prawnych, których człowiek jest założycielem i zarządcą. Reżim prawa prywatnego międzynarodowego również nie powinien dopuścić czynnego udziału typu sztucznej- inteligentnej osoby prawnej w obrocie prawnym.

Omawiana sprawa budzi wiele konsekwencji. Niektórzy naukowcy sprzeciwiają się przyznaniu robotom praw i obowiązków, które mogą być przyznane dotychczas tylko ludziom, tłumacząc, że ciężko byłoby by stwierdzić, czy może być nosicielem takich dóbr prawnych jak nietykalność cielesna, prywatność. Argumentują również że dopiero kiedy SI rozwinie się do poziomu, w którym robot sam rzeczywiście będzie mógł zrozumieć znaczenie swoich czynów i pokierować swoim postępowaniem, stanie się zdolny do ponoszenia winy na takiej zasadzie jak człowiek. Jednakże na obecnym etapie rozwoju nie ani potrzeby, ani podstaw do nadawania AI osobowości prawnej

Niewykluczone, że prawodawca będzie musiał zmierzyć się z tym problemem, ale jeszcze nie teraz – dopiero, gdy sztuczna inteligencja dorówna ludzkiej.

[1] czynność prawna – czynność konwencjonalna (skonstruowana przez normę prawną) podmiotu prawa cywilnego, zawierająca treść określającą konsekwencje prawne zdarzenia prawnego.

eng.

We live in a time when robots and systems equipped with artificial intelligence (AI) have started to replace humans, which is particularly evident in the labour market. Automation makes it possible to replace not only physical but also mental workers – lawyers or brokers. In 2017, Goldman Sachs in New York left two out of 600 employed brokers and entrusted the rest of the work to about 200 computer engineers. According to one of the bank’s board members, Marta Chavez, four brokers can be replaced by one computer and a programmer – the effect will be the same or even better.

Robots can do a lot, they can be trained, and more and more of them can make decisions on their own, as well as perform creative activities that were previously only a human domain – making music, writing articles or painting. This made us wonder how to prepare society for the changes associated with the introduction of the AI to larger and larger areas of our lives – including the changing in labor market. Bill Gates suggested taxing robots, explaining that work done by a machine should be taxed in the same way as that done by a human being. Some, like Elon Musk, advocate a solution to grant people so-called unconditional basic income. The idea is that every person should receive the same amount of money – regardless of age, material situation, earnings that will ensure the living wage, so that everyone can afford to guarantee basic needs such as housing, food, clothing. Musk predicts that this solution will be necessary because there will be less and less work and less professions that a person can do.

From January 2017 to the end of 2018, an experiment was conducted in Finland, where participants were provided with a basic income of 560 euros per month. In 2019 Finland presented the first results of the experiment. The introduction of the basic income did not have a positive effect on employment, but improved the sense of well-being of the beneficiaries. The experiment failed because the participants were not motivated to seek work.

Automation is predicted to change the whole world, and the new industrial revolution we are currently witnessing is likely to affect every layer of society. The AI and the autonomous systems (those that are capable of making decisions and implementing them, regardless of external control or influence) also give rise to a number of new legal challenges.

International and EU organizations are also analyzing the problems that artificial intelligence can bring. In 2017, the Civil Law Rules on Robotics were created – European Parliament resolution of 16 February 2017 containing recommendations to the Commission on civil law rules on robotics (2015/2103(INL), which explicitly states that, given that artificial intelligence is likely to surpass human intellectual capacity in the long term, it is necessary to consider whether to introduce a legal instrument giving robots a special legal status in the long term so that at least the most developed autonomous robots can be given the status of electronic persons responsible for remedying any damage they might cause and the possible use of electronic personality when robots make autonomous decisions or interact independently with third parties. The document also calls the machine builders to apply the robotics laws of Isaac Asimov, as presented in his short story, Playing the Berka (1942). Sounds as follows:

1.The robot must not injure a person, nor, by failing to act, allow that person to be harmed.
2.The robot must obey human orders, unless they conflict with the First Law.
3.The robot must protect itself unless it is in conflict with the First or Second Law.
The act presented in the EU also includes a code of conduct for scientists and designers, which sets out basic ethical principles to be observed when creating, programming and using robots. It is proposed to incorporate these principles into Member States’ legislation.

The document was challenged. Experts dealing with AI in areas such as ethics, law or medicine sent an open letter to the European Commission expressing their concern about granting electronic personality status to robots because the legal construction of legal personality is linked to a natural person (and to a legal person that is directly related to a human being), which would mean that a robot would have human rights, such as the right to dignity, the right to citizenship. This would be contrary to the EU Charter of Fundamental Rights or conventions protecting human rights. You can read the letter tutaj.

In order to continue the discussion on electronic personality, the question of what this term actually means should be answered.

The term legal personality is commonly used to refer to the ability to be a subject of rights and obligations and to perform legal actions on one’s own behalf 1. Currently, it may concern a human person (natural person) and legal persons (e.g. companies) acquire (as a rule) legal personality once they are entered in the relevant register. Legal persons act (shape their rights and obligations) through their managers (as bodies of a legal person).

For further consideration, it should be stressed that the term electronic personality will only refer to robots that have been equipped with artificial intelligence.

Why is it important to give robots this status? There are several reasons for that. The main one is to determine who is responsible for the damage caused by the robot. Until now, this construction was only intended for humans. Can a robot that makes autonomous decisions be responsible for its actions? Can it be held responsible for damage to property, for harming people?

Some people think that responsibility could apply to the person who uses the thing, but is it the right construction when the robot makes the decisions itself and the owner has no control over it? The second option is to hold the creator of the machine responsible. But can it really be held responsible when the robot makes decisions in cases unforeseen by its creator? Or wouldn’t be the third option the easiest and fairest when a robot be responsible for its actions ? Granting electronic personality to robots would raise further legal questions – does the robot then have rights and obligations? Can it be said that a robot may have property rights? Can it pay taxes like humans?

Why can liability be complicated? Because there can be two cases – the first one where the operator of the machine uses it carelessly or uses it to cause damage – then the responsibility is easy to determine and concerns the person responsible for the robot. The second case can be more complicated and occurs when the robot becomes independent and behaves in a different way than the creator anticipated. In this case, responsibility could be carried by the insurance company. It is proposed that a special insurance fund be set up, which would be linked to the machine and from which compensation would be paid to those affected by the robot’s operation. It is also proposed to create a special register of robots, which would show who is responsible for the machine and who pays for the insurance.

But it is not only responsibility that is problematic. The issues of obligations, e.g. contracts concluded by robots would also be connected with electronic personality. Would it be binding if a robot entered into a contract with a human being? Can the owner be represented by his robot when he concludes a contract based on an autonomous decision? Granting legal personality status would make it very easy to resolve these problems. Perhaps it would be possible to consider the robot’s actions as those of a legal entity, regardless of its owner. A machine, like a legal entity, would serve its owners to achieve a certain purpose. Their personality – just like in the case of legal persons – would be a kind of fiction.

In 2017, a humanoid robot equipped with artificial intelligence – Sophia, produced by Hanson Robotics from Hong Kong, became a citizen of Saudi Arabia, thus following the trend of empowerment. The robot quickly became popular and began to give interviews all over the world. You can see one of the interview tutaj.

Recently – at the end of 2019 – the European Commission’s European Expert Group on Responsibility and New Technologies published the report LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES, which states that it is not necessary for the purposes of liability to give autonomous legal systems personality. The damage caused by fully autonomous technologies may be reduced to risks attributable to natural persons or legal persons. The approach is the one proposed in Poland. On the Polish ground, the draft Policy for the Development of Artificial Intelligence in Poland for 2019-2027 states that: Poland stands for and supports those countries that refuse to grant AI systems citizenship or legal personality status. This concept is contrary to the idea of Human Centric AI and the state of development of AI systems and finally the higher status of animals over machines. Moreover, Poland is in favour of the concept of human supremacy over AI systems, and thus of human responsibility or legal persons of which a person is founder and manager. The private international law regime should also not allow for the active participation of an artificially intelligent legal person in legal transactions.

This matter may have many consequences. Some scientists oppose the granting of rights and duties to robots, which so far can only be granted to humans, explaining that it would be difficult to determine whether they can carry such legal goods as physical integrity and privacy. They also argue that it is only when the AI develops to the point where the robot can actually understand the meaning of his actions and guide his conduct that he will be able to bear the guilt of a human being. However, at this stage of development, there is neither the need nor the basis for giving AI a legal personality

It is possible that the legislator will have to face this problem, but not yet – only when the artificial intelligence is equal to human beings.

[1] legal action – a conventional action (constructed by a legal norm) of a civil law entity.

pl_PL