{"id":181,"date":"2020-08-03T17:33:54","date_gmt":"2020-08-03T15:33:54","guid":{"rendered":"http:\/\/ailaw.news\/?p=181"},"modified":"2020-08-03T17:33:54","modified_gmt":"2020-08-03T15:33:54","slug":"krotka-historia-osobowosci-elektronicznej","status":"publish","type":"post","link":"https:\/\/ailaw.news\/pl\/krotka-historia-osobowosci-elektronicznej\/","title":{"rendered":"Kr\u00f3tka historia osobowo\u015bci elektronicznej"},"content":{"rendered":"<h2 class=\"has-text-align-center wp-block-heading\">Brief history of the electronic personality<\/h2>\n\n\n\n<p>[eng\/pl]<\/p>\n\n\n\n<p class=\"has-text-align-justify\">\u017byjemy w czasach, w kt\u00f3rym roboty i systemy wyposa\u017cone w sztuczn\u0105 inteligencj\u0119 (SI) zacz\u0119\u0142y zast\u0119powa\u0107 ludzi, co szczeg\u00f3lnie widoczne jest na rynku pracy. Automatyzacja sprawia, \u017ce zast\u0119powani s\u0105 pracownicy nie tylko fizyczni, ale tak\u017ce umys\u0142owi &#8211; prawnicy, czy maklerzy. Ju\u017c w 2017 roku <a rel=\"noreferrer noopener\" href=\"https:\/\/businessinsider.com.pl\/robotyzacja-pracy-programisci-zastepuja-traderow-na-wall-street\/ch2hhrn\" target=\"_blank\">Goldman Sachs<\/a> w Nowym Jorku z 600 zatrudnionych makler\u00f3w, pozostawi\u0142 dw\u00f3ch, a reszt\u0119 pracy powierzy\u0142 oko\u0142o 200 in\u017cynierom komputerowym. Wed\u0142ug jednego z cz\u0142onk\u00f3w zarz\u0105du banku Marty Chaveza &#8211; czterech makler\u00f3w mo\u017cna zamieni\u0107 na jeden komputer i programist\u0119 &#8211; efekt b\u0119dzie ten sam, a nawet lepszy.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Roboty potrafi\u0105 naprawd\u0119 du\u017co, mo\u017cna je szkoli\u0107, a coraz wi\u0119cej z nich mo\u017ce samodzielnie podejmowa\u0107 decyzje, a tak\u017ce wykonywa\u0107 dzia\u0142alno\u015b\u0107 kreatywn\u0105 dotychczas b\u0119d\u0105c\u0105 tylko domen\u0105 cz\u0142owieka &#8211; tworzy\u0107 muzyk\u0119, pisa\u0107 artyku\u0142y, czy malowa\u0107 obrazy. To spowodowa\u0142o, \u017ce zacz\u0119to zastanawia\u0107 si\u0119 w jaki spos\u00f3b przygotowa\u0107 spo\u0142ecze\u0144stwo na zmiany zwi\u0105zane z wprowadzaniem SI na coraz wi\u0119ksze obszary naszego \u017cycia &#8211; r\u00f3wnie\u017c na przeobra\u017caj\u0105cy si\u0119 rynek pracy. <\/p>\n\n\n\n<p class=\"has-text-align-justify\">Bill Gates zaproponowa\u0142, \u017ceby opodatkowa\u0107 roboty, t\u0142umacz\u0105c, \u017ce praca wykonywana przez maszyn\u0119 powinna by\u0107 opodatkowana, w taki sam spos\u00f3b jak ta wykonywana przez cz\u0142owieka. Niekt\u00f3rzy \u2013 tak jak Elon Musk &#8211; opowiadaj\u0105 si\u0119 za rozwi\u0105zaniem przyznania ludziom tzw. bezwarunkowego dochodu podstawowego. Idea ta zak\u0142ada, \u017ce ka\u017cda osoba powinna otrzyma\u0107 tak\u0105 sam\u0105 kwot\u0119 pieni\u0119dzy \u2013 niezale\u017cnie od wieku, sytuacji materialnej, zarobk\u00f3w, kt\u00f3ra zapewni minimum egzystencji, aby ka\u017cdego by\u0142o sta\u0107 na zagwarantowanie podstawowych potrzeb, np. mieszkania, jedzenia, ubrania. Musk przewiduje, \u017ce rozwi\u0105zanie to b\u0119dzie konieczne ze wzgl\u0119du na to, \u017ce b\u0119dzie coraz mniej pracy i mniej zawod\u00f3w, kt\u00f3re mo\u017ce wykonywa\u0107 cz\u0142owiek.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Od stycznia 2017 roku do ko\u0144ca 2018 roku w Finlandii przeprowadzono eksperyment, gdzie uczestnikom zapewniono doch\u00f3d podstawowy w wysoko\u015bci 560 euro miesi\u0119cznie. W 2019 roku Finlandia przedstawi\u0142a pierwsze wyniki eksperymentu. Wprowadzenie dochodu podstawowego nie wp\u0142yn\u0119\u0142o pozytywnie na zatrudnienie, ale poprawi\u0142o <em>poczucie dobrobytu<\/em> u \u015bwiadczeniobiorc\u00f3w. Eksperyment zako\u0144czy\u0142 si\u0119 niepowodzeniem, gdy\u017c uczestnicy nie byli zmotywowani do poszukiwania pracy.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Przewiduje si\u0119, \u017ce automatyzacja zmieni ca\u0142y \u015bwiat, a nowa rewolucja przemys\u0142owa, kt\u00f3rej aktualnie jeste\u015bmy \u015bwiadkami, prawdopodobnie dotknie ka\u017cd\u0105 warstw\u0119 spo\u0142eczn\u0105. SI i systemy autonomiczne (te kt\u00f3re s\u0105 zdolne do podejmowania decyzji i ich realizacji, niezale\u017cnie od kontroli zewn\u0119trznej lub wp\u0142ywu z zewn\u0105trz;) powoduj\u0105 r\u00f3wnie\u017c powstanie szeregu nowych wyzwa\u0144 prawnych.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Analizy problem\u00f3w jakie mo\u017ce przynie\u015b\u0107 sztuczna inteligencja dokonuj\u0105 tak\u017ce organizacje mi\u0119dzynarodowe i unijne. W 2017 roku powsta\u0142y <em><a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/PL\/TXT\/PDF\/?uri=CELEX:52017IP0051&amp;from=EN]\" target=\"_blank\" rel=\"noreferrer noopener\">Przepisy<\/a> Prawa Cywilnego dotycz\u0105ce Robotyki &#8211; Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017r. zawieraj\u0105ce zalecenia dla Komisji w sprawie przepis\u00f3w prawa cywilnego dotycz\u0105cych robotyki (2015\/2103(INL), <\/em>kt\u00f3re wprost m\u00f3wi\u0105, \u017ce <em>maj\u0105c na uwadze, \u017ce istnieje mo\u017cliwo\u015b\u0107, \u017ce w perspektywie d\u0142ugoterminowej sztuczna inteligencja przewy\u017cszy ludzkie zdolno\u015bci intelektualne<\/em>, konieczne jest rozwa\u017cenie, czy wprowadzi\u0107 instrument prawny <em>nadaj\u0105cy robotom specjalny status prawny w perspektywie d\u0142ugoterminowej, aby przynajmniej najbardziej rozwini\u0119tym robotom autonomicznym mo\u017cna by\u0142o nada\u0107 status os\u00f3b elektronicznych odpowiedzialnych za<\/em> <em>naprawianie wszelkich szk\u00f3d, jakie mog\u0142yby wyrz\u0105dzi\u0107, oraz ewentualne stosowanie <strong>osobowo\u015bci elektronicznej<\/strong> w przypadkach podejmowania przez roboty autonomicznych decyzji lub ich niezale\u017cnych interakcji z osobami trzecimi. <\/em>We wspomnianym dokumencie wzywa si\u0119 r\u00f3wnie\u017c tw\u00f3rc\u00f3w maszyn, by stosowali prawa robotyki Isaaca Asimova, przedstawione w jego opowiadaniu \u2013 Zabawa w berka (1942). Brzmi\u0105ce nast\u0119puj\u0105co:<\/p>\n\n\n\n<p>1.Robot nie mo\u017ce skrzywdzi\u0107 cz\u0142owieka, ani przez zaniechanie dzia\u0142ania dopu\u015bci\u0107, aby cz\u0142owiek dozna\u0142 krzywdy.<\/p>\n\n\n\n<p>2.Robot musi by\u0107 pos\u0142uszny rozkazom cz\u0142owieka, chyba \u017ce stoj\u0105 one w sprzeczno\u015bci z Pierwszym Prawem.<\/p>\n\n\n\n<p>3.Robot musi chroni\u0107 sam siebie, je\u015bli tylko nie stoi to w sprzeczno\u015bci z Pierwszym lub Drugim Prawem.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">W akcie przedstawionym w UE miejsce znalaz\u0142 r\u00f3wnie\u017c kodeks post\u0119powania dla naukowc\u00f3w i projektant\u00f3w, kt\u00f3ry okre\u015bla podstawowe zasady etyczne, jakie nale\u017cy przestrzega\u0107 podczas tworzenia, programowania i wykorzystywania robot\u00f3w. Postulowane jest w\u0142\u0105czenie tych zasad do uregulowa\u0144 prawnych pa\u0144stw cz\u0142onkowskich.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Dokument spotka\u0142 si\u0119 ze sprzeciwem. Eksperci zajmuj\u0105cy si\u0119 SI z takich obszar\u00f3w jak etyka, prawo, czy medycyna wystosowali <strong>list otwarty do Komisji Europejskiej<\/strong>, w kt\u00f3rym wyrazili zaniepokojenie przyznaniem statusu osobowo\u015bci elektronicznej robotom, gdy\u017c sama konstrukcja prawna osobowo\u015bci prawnej zwi\u0105zana jest z osob\u0105 fizyczn\u0105 (i z osob\u0105 prawn\u0105, kt\u00f3ra bezpo\u015brednio zwi\u0105zana jest z cz\u0142owiekiem), a to oznacza\u0142by, \u017ce robot posiada\u0142by prawa cz\u0142owieka, takie jak prawo do godno\u015bci, prawo do obywatelstwa. By\u0142oby to sprzeczne z Kart\u0105 Praw Podstawowych UE, czy konwencjami chroni\u0105cymi prawa cz\u0142owieka. List mo\u017cna przeczyta\u0107 <a rel=\"noreferrer noopener\" href=\"https:\/\/g8fip1kplyr33r3krz5b97d1-wpengine.netdna-ssl.com\/wp-content\/uploads\/2018\/04\/RoboticsOpenLetter.pdf\" target=\"_blank\">tu<\/a><a href=\"https:\/\/g8fip1kplyr33r3krz5b97d1-wpengine.netdna-ssl.com\/wp-content\/uploads\/2018\/04\/RoboticsOpenLetter.pdf\">.<\/a><\/p>\n\n\n\n<p class=\"has-text-align-justify\">Aby kontynuowa\u0107 dalsze rozwa\u017cania o osobowo\u015bci elektronicznej, nale\u017cy odpowiedzie\u0107 na pytanie, czym w\u0142a\u015bciwie jest ten termin.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">W powszechnym u\u017cyciu wyst\u0119puje termin osobowo\u015b\u0107 prawna oznaczaj\u0105ca zdolno\u015b\u0107 bycia podmiotem praw i obowi\u0105zk\u00f3w oraz dokonywania we w\u0142asnym imieniu czynno\u015bci prawnych<sup>1<\/sup>. Aktualnie mo\u017ce dotyczy\u0107 osoby ludzkiej (osoby fizycznej), a osoby prawne (np. sp\u00f3\u0142ki) uzyskuj\u0105 (co do zasady) osobowo\u015b\u0107 prawn\u0105 z chwil\u0105 wpisania ich do w\u0142a\u015bciwego rejestru. Osoby prawne dzia\u0142aj\u0105 (kszta\u0142tuj\u0105 swoje prawa i obowi\u0105zki) za po\u015brednictwem zarz\u0105dzaj\u0105cych nimi os\u00f3b (jako organ\u00f3w osoby prawnej).<\/p>\n\n\n\n<p class=\"has-text-align-justify\">W celu prowadzenia dalszych rozwa\u017ca\u0144, nale\u017cy podkre\u015bli\u0107, \u017ce termin osobowo\u015bci elektronicznej b\u0119dzie odnosi\u0142 si\u0119 tylko do robot\u00f3w, kt\u00f3re zosta\u0142y wyposa\u017cone w sztuczn\u0105 inteligencj\u0119.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Dlaczego przyznanie robotom takiego statusu jest wa\u017cne? Powod\u00f3w jest kilka. A g\u0142\u00f3wny dotyczy okre\u015blenia kto jest odpowiedzialny za szkody wyrz\u0105dzone przez robota. Dotychczas konstrukcja ta by\u0142a przewidziana tylko dla ludzi. Czy robot, kt\u00f3ry podejmuje autonomiczne decyzje mo\u017ce by\u0107 odpowiedzialny za swoje czyny? Czy mo\u017ce by\u0107 poci\u0105gni\u0119ty do odpowiedzialno\u015bci za szkody w mieniu, za wyrz\u0105dzenie krzywdy ludziom?<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Niekt\u00f3rzy uwa\u017caj\u0105, \u017ce odpowiedzialno\u015b\u0107 mog\u0142aby dotyczy\u0107 osoby, kt\u00f3ra pos\u0142uguje si\u0119 rzecz\u0105, ale czy jest to konstrukcja odpowiednia, kiedy robot, kt\u00f3ry samodzielnie podejmuje decyzje i w\u0142a\u015bciciel nie ma nad nim kontroli? Drug\u0105 opcj\u0105 jest poci\u0105gni\u0119cie do odpowiedzialno\u015bci tw\u00f3rcy maszyny. Ale czy faktycznie mo\u017cna obci\u0105\u017cy\u0107 go odpowiedzialno\u015bci\u0105, kiedy robot podejmie decyzje w przypadkach nieprzewidzianych przez swojego kreatora? Czy mo\u017ce trzecie rozwi\u0105zanie \u2013 robot odpowiedzialny za swoje czyny nie by\u0142oby naj\u0142atwiejszym i najbardziej sprawiedliwym \u015brodkiem? Jednak\u017ce przyznanie osobowo\u015bci elektronicznej robotom rodzi\u0142oby kolejne pytania i w\u0105tpliwo\u015bci prawne\u2013 czy w takim razie robot ma prawa i obowi\u0105zki? Czy mo\u017cna m\u00f3wi\u0107, \u017ce robot mo\u017ce mie\u0107 prawo w\u0142asno\u015bci? Czy mo\u017ce p\u0142aci\u0107 podatki tak jak ludzie?<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Dlaczego kwestia odpowiedzialno\u015bci mo\u017ce by\u0107 skomplikowana? Bo mo\u017ce dotyczy\u0107 dw\u00f3ch przypadk\u00f3w \u2013 pierwszy, gdy dysponent maszyny korzysta z niej nieostro\u017cnie lub u\u017cywa jej \u017ceby wyrz\u0105dzi\u0107 szkod\u0119 \u2013 wtedy odpowiedzialno\u015b\u0107 jest \u0142atwa do okre\u015blenia i dotyczy osoby odpowiedzialnej za robota. Drugi przypadek mo\u017ce by\u0107 bardziej skomplikowany i wyst\u0119puje wtedy, gdy robot si\u0119 usamodzielni i zachowuje si\u0119 w spos\u00f3b inny ni\u017c przewidywa\u0142 tw\u00f3rca. W takim wypadku odpowiedzialno\u015b\u0107 m\u00f3g\u0142by ponosi\u0107 zak\u0142ad ubezpiecze\u0144. Postulowane jest utworzenie specjalnego funduszu ubezpieczeniowego, kt\u00f3ry by\u0142by zwi\u0105zany z maszyn\u0105 i z kt\u00f3rego wyp\u0142acano by odszkodowanie osobom poszkodowanym przez dzia\u0142anie robota. Proponowane jest te\u017c stworzenie specjalnego rejestru robot\u00f3w, z kt\u00f3rego wynika\u0142oby, kto jest odpowiedzialny za maszyn\u0119 i kto op\u0142aca za ni\u0105 ubezpieczenie.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Ale nie tylko odpowiedzialno\u015b\u0107 jest kwesti\u0105 problematyczn\u0105. Z osobowo\u015bci\u0105 elektroniczn\u0105 zwi\u0105zane by\u0142by r\u00f3wnie\u017c zagadnienia zobowi\u0105za\u0144 np. kontrakty zawierane przez roboty. Czy je\u015bli robot zawar\u0142by umow\u0119 z cz\u0142owiekiem by\u0142aby ona wi\u0105\u017c\u0105ca? Czy w\u0142a\u015bciciel mo\u017ce by\u0107 reprezentowany przez swojego robota, gdy ten zawiera umow\u0119 w oparciu o autonomiczn\u0105 decyzj\u0119? Przyznanie statusu osobowo\u015bci prawnej bardzo u\u0142atwi\u0142oby rozstrzygni\u0119cie tych problem\u00f3w. By\u0107 mo\u017ce mo\u017cna by\u0142oby rozpatrywa\u0107 dzia\u0142ania robota, tak jak dzia\u0142ania osoby prawnej, niezale\u017cnie od jego w\u0142a\u015bciciela. Maszyny tak jak w przypadku os\u00f3b prawnych s\u0142u\u017cy\u0142by w\u0142a\u015bcicielom do osi\u0105gni\u0119cia okre\u015blonego celu. Ich osobowo\u015b\u0107 \u2013 tak jak os\u00f3b prawnych- by\u0142aby niejako fikcj\u0105.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">W 2017 roku humanoidalny robot wyposa\u017cony w sztuczn\u0105 inteligencj\u0119 &#8211; Sophia, wyprodukowany przez firm\u0119 Hanson Robotics z Hongkongu, zosta\u0142 obywatelem Arabii Saudyjskiej, wpisuj\u0105c si\u0119 tym samym w trend upodmiotowienia. Robot szybko zyska\u0142 popularno\u015b\u0107 i zacz\u0105\u0142 udziela\u0107 wywiad\u00f3w na ca\u0142ym \u015bwiecie. Jeden z wywiad\u00f3w mo\u017cna obejrze\u0107 <a rel=\"noreferrer noopener\" href=\"https:\/\/www.youtube.com\/watch?v=5_jp9CwJhcA&amp;feature=youtu.be&amp;fbclid=IwAR3LW8CKjtQ8qwJlC_DKXXcnUljW0OmEvFUKgk8rMJvrSRXE5CSvLc5C1u8\" target=\"_blank\">tutaj<\/a>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Niedawno \u2013 pod koniec 2019 roku \u2013 Europejska Grupa Ekspert\u00f3w ds.odpowiedzialno\u015bci i nowych technologii przy Komisji Europejskiej opublikowa\u0142a <a rel=\"noreferrer noopener\" href=\"\/\/\/Users\/apple\/Downloads\/LiabilityforAIandotheremergingdigitaltechnologiespdf.pdf\" target=\"_blank\">raport<\/a> &#8211; LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES, w kt\u00f3rym stwierdzono, \u017ce dla cel\u00f3w odpowiedzialno\u015bci nie jest konieczne nadanie autonomicznym systemom prawnym osobowo\u015bci. Szkody spowodowane przez w pe\u0142ni autonomiczne technologie mog\u0105 by\u0107 zredukowane do ryzyka, kt\u00f3ry mo\u017cna przypisa\u0107 osobom fizycznym lub osobom prawnym. Podej\u015bcie pokrywa si\u0119 z tym zaproponowanym w Polsce.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Na gruncie polskim w projekcie Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 \u2013 2027 stwierdzono, \u017ce: <em>Polska stoi na stanowisku i popiera te kraje, kt\u00f3re odmawiaj\u0105 nadania systemom AI statusu obywatelstwa czy osobowo\u015bci prawnej. Koncept ten jest sprzeczny z ide\u0105 Human Centric AI oraz stanem rozwoju system\u00f3w AI, a wreszcie wy\u017cszego statusu zwierz\u0105t nad maszynami. Nadto, Polska opowiada si\u0119 za koncepcj\u0105 supremacji cz\u0142owieka nad systemami AI, a przez to odpowiedzialno\u015bci\u0105 ludzk\u0105 osobist\u0105 lub os\u00f3b prawnych, kt\u00f3rych cz\u0142owiek jest za\u0142o\u017cycielem i zarz\u0105dc\u0105. Re\u017cim prawa prywatnego mi\u0119dzynarodowego r\u00f3wnie\u017c nie powinien dopu\u015bci\u0107 czynnego udzia\u0142u typu sztucznej- inteligentnej osoby prawnej w obrocie prawnym.<\/em><\/p>\n\n\n\n<p class=\"has-text-align-justify\">Omawiana sprawa budzi wiele konsekwencji. Niekt\u00f3rzy naukowcy sprzeciwiaj\u0105 si\u0119 przyznaniu robotom praw i obowi\u0105zk\u00f3w, kt\u00f3re mog\u0105 by\u0107 przyznane dotychczas tylko ludziom, t\u0142umacz\u0105c, \u017ce ci\u0119\u017cko by\u0142oby by stwierdzi\u0107, czy mo\u017ce by\u0107 nosicielem takich d\u00f3br prawnych jak nietykalno\u015b\u0107 cielesna, prywatno\u015b\u0107. Argumentuj\u0105 r\u00f3wnie\u017c \u017ce dopiero kiedy SI rozwinie si\u0119 do poziomu, w kt\u00f3rym robot sam rzeczywi\u015bcie b\u0119dzie m\u00f3g\u0142 zrozumie\u0107 znaczenie swoich czyn\u00f3w i pokierowa\u0107 swoim post\u0119powaniem, stanie si\u0119 zdolny do ponoszenia winy na takiej zasadzie jak cz\u0142owiek. Jednak\u017ce na obecnym etapie rozwoju nie ani potrzeby, ani podstaw do nadawania AI osobowo\u015bci prawnej<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Niewykluczone, \u017ce prawodawca b\u0119dzie musia\u0142 zmierzy\u0107 si\u0119 z tym problemem, ale jeszcze nie teraz \u2013 dopiero, gdy sztuczna inteligencja dor\u00f3wna ludzkiej.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>[1] czynno\u015b\u0107 prawna &#8211; czynno\u015b\u0107 konwencjonalna (skonstruowana przez norm\u0119 prawn\u0105) podmiotu prawa cywilnego, zawieraj\u0105ca tre\u015b\u0107 okre\u015blaj\u0105c\u0105 konsekwencje prawne zdarzenia prawnego. <\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>eng.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">We live in a time when robots and systems equipped with artificial intelligence (AI) have started to replace humans, which is particularly evident in the labour market. Automation makes it possible to replace not only physical but also mental workers &#8211; lawyers or brokers. In 2017, <a rel=\"noreferrer noopener\" href=\"https:\/\/businessinsider.com.pl\/robotyzacja-pracy-programisci-zastepuja-traderow-na-wall-street\/ch2hhrn\" target=\"_blank\">Goldman<\/a> Sachs in New York left two out of 600 employed brokers and entrusted the rest of the work to about 200 computer engineers. According to one of the bank&#8217;s board members, Marta Chavez, four brokers can be replaced by one computer and a programmer &#8211; the effect will be the same or even better.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Robots can do a lot, they can be trained, and more and more of them can make decisions on their own, as well as perform creative activities that were previously only a human domain &#8211; making music, writing articles or painting. This made us wonder how to prepare society for the changes associated with the introduction of the AI to larger and larger areas of our lives &#8211; including the changing in labor market. Bill Gates suggested taxing robots, explaining that work done by a machine should be taxed in the same way as that done by a human being. Some, like Elon Musk, advocate a solution to grant people so-called unconditional basic income. The idea is that every person should receive the same amount of money &#8211; regardless of age, material situation, earnings that will ensure the living wage, so that everyone can afford to guarantee basic needs such as housing, food, clothing. Musk predicts that this solution will be necessary because there will be less and less work and less professions that a person can do.<\/p>\n\n\n\n<p>From January 2017 to the end of 2018, an experiment was conducted in Finland, where participants were provided with a basic income of 560 euros per month. In 2019 Finland presented the first results of the experiment. The introduction of the basic income did not have a positive effect on employment, but improved <em>the sense of well-being<\/em> of the beneficiaries. The experiment failed because the participants were not motivated to seek work.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Automation is predicted to change the whole world, and the new industrial revolution we are currently witnessing is likely to affect every layer of society. The AI and the autonomous systems (those that are capable of making decisions and implementing them, regardless of external control or influence) also give rise to a number of new legal challenges.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">International and EU organizations are also analyzing the problems that artificial intelligence can bring. In 2017, the Civil Law <a rel=\"noreferrer noopener\" href=\"https:\/\/eur-lex.europa.eu\/legal-content\/PL\/TXT\/PDF\/?uri=CELEX:52017IP0051&amp;from=EN\" target=\"_blank\">Rules<\/a> on Robotics were created &#8211; European Parliament resolution of 16 February 2017 containing recommendations to the Commission on civil law rules on robotics (2015\/2103(INL), which explicitly states that, <em>given that artificial intelligence is likely to surpass human intellectual capacity in the long term, it is necessary to consider whether to introduce a legal instrument giving robots a special legal status in the long term so that at least the most developed autonomous robots can be given the status of electronic persons responsible for remedying any damage they might cause and the possible use of electronic personality when robots make autonomous decisions or interact independently with third parties. <\/em>The document also calls the machine builders to apply the robotics laws of Isaac Asimov, as presented in his short story, Playing the Berka (1942). Sounds as follows: <\/p>\n\n\n\n<p class=\"has-text-align-justify\">1.The robot must not injure a person, nor, by failing to act, allow that person to be harmed.<br>2.The robot must obey human orders, unless they conflict with the First Law.<br>3.The robot must protect itself unless it is in conflict with the First or Second Law.<br>The act presented in the EU also includes a code of conduct for scientists and designers, which sets out basic ethical principles to be observed when creating, programming and using robots. It is proposed to incorporate these principles into Member States&#8217; legislation.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">The document was challenged. Experts dealing with AI in areas such as ethics, law or medicine sent an open letter to the European Commission expressing their concern about granting electronic personality status to robots because the legal construction of legal personality is linked to a natural person (and to a legal person that is directly related to a human being), which would mean that a robot would have human rights, such as the right to dignity, the right to citizenship. This would be contrary to the EU Charter of Fundamental Rights or conventions protecting human rights. You can read the letter <a rel=\"noreferrer noopener\" href=\"https:\/\/g8fip1kplyr33r3krz5b97d1-wpengine.netdna-ssl.com\/wp-content\/uploads\/2018\/04\/RoboticsOpenLetter.pdf\" target=\"_blank\">tutaj<\/a>.<\/p>\n\n\n\n<p>In order to continue the discussion on electronic personality, the question of what this term actually means should be answered. <\/p>\n\n\n\n<p class=\"has-text-align-justify\">The term legal personality is commonly used to refer to the ability to be a subject of rights and obligations and to perform legal actions on one&#8217;s own behalf <sup>1<\/sup>.  Currently, it may concern a human person (natural person) and legal persons (e.g. companies) acquire (as a rule) legal personality once they are entered in the relevant register. Legal persons act (shape their rights and obligations) through their managers (as bodies of a legal person).<\/p>\n\n\n\n<p>For further consideration, it should be stressed that the term electronic personality will only refer to robots that have been equipped with artificial intelligence.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Why is it important to give robots this status? There are several reasons for that. The main one is to determine who is responsible for the damage caused by the robot. Until now, this construction was only intended for humans. Can a robot that makes autonomous decisions be responsible for its actions? Can it be held responsible for damage to property, for harming people?<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Some people think that responsibility could apply to the person who uses the thing, but is it the right construction when the robot makes the decisions itself and the owner has no control over it? The second option is to hold the creator of the machine responsible. But can it really be held responsible when the robot makes decisions in cases unforeseen by its creator? Or wouldn&#8217;t be the third option the easiest and fairest when a robot be responsible for its actions ? Granting electronic personality to robots would raise further legal questions &#8211; does the robot then have rights and obligations? Can it be said that a robot may have property rights? Can it pay taxes like humans?<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Why can liability be complicated? Because there can be two cases &#8211; the first one where the operator of the machine uses it carelessly or uses it to cause damage &#8211; then the responsibility is easy to determine and concerns the person responsible for the robot. The second case can be more complicated and occurs when the robot becomes independent and behaves in a different way than the creator anticipated. In this case, responsibility could be carried by the insurance company. It is proposed that a special insurance fund be set up, which would be linked to the machine and from which compensation would be paid to those affected by the robot&#8217;s operation. It is also proposed to create a special register of robots, which would show who is responsible for the machine and who pays for the insurance.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">But it is not only responsibility that is problematic. The issues of obligations, e.g. contracts concluded by robots would also be connected with electronic personality. Would it be binding if a robot entered into a contract with a human being? Can the owner be represented by his robot when he concludes a contract based on an autonomous decision? Granting legal personality status would make it very easy to resolve these problems. Perhaps it would be possible to consider the robot&#8217;s actions as those of a legal entity, regardless of its owner. A machine, like a legal entity, would serve its owners to achieve a certain purpose. Their personality &#8211; just like in the case of legal persons &#8211; would be a kind of fiction.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">In 2017, a humanoid robot equipped with artificial intelligence &#8211; Sophia, produced by Hanson Robotics from Hong Kong, became a citizen of Saudi Arabia, thus following the trend of empowerment. The robot quickly became popular and began to give interviews all over the world. You can see one of the interview <a rel=\"noreferrer noopener\" href=\"https:\/\/www.youtube.com\/watch?v=5_jp9CwJhcA&amp;feature=youtu.be&amp;fbclid=IwAR3LW8CKjtQ8qwJlC_DKXXcnUljW0OmEvFUKgk8rMJvrSRXE5CSvLc5C1u8\" target=\"_blank\">tutaj<\/a>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Recently &#8211; at the end of 2019 &#8211; the European Commission&#8217;s European Expert Group on Responsibility and New Technologies published the <a rel=\"noreferrer noopener\" href=\"https:\/\/op.europa.eu\/pl\/publication-detail\/-\/publication\/1c5e30be-1197-11ea-8c1f-01aa75ed71a1\" target=\"_blank\">report<\/a> LIABILITY FOR ARTIFICIAL INTELLIGENCE AND OTHER EMERGING DIGITAL TECHNOLOGIES, which states that it is not necessary for the purposes of liability to give autonomous legal systems personality. The damage caused by fully autonomous technologies may be reduced to risks attributable to natural persons or legal persons. The approach is the one proposed in Poland. On the Polish ground, the draft Policy for the Development of Artificial Intelligence in Poland for 2019-2027 states that: <em>Poland stands for and supports those countries that refuse to grant AI systems citizenship or legal personality status. This concept is contrary to the idea of Human Centric AI and the state of development of AI systems and finally the higher status of animals over machines. Moreover, Poland is in favour of the concept of human supremacy over AI systems, and thus of human responsibility or legal persons of which a person is founder and manager. The private international law regime should also not allow for the active participation of an artificially intelligent legal person in legal transactions.<\/em><\/p>\n\n\n\n<p class=\"has-text-align-justify\">This matter may have many consequences. Some scientists oppose the granting of rights and duties to robots, which so far can only be granted to humans, explaining that it would be difficult to determine whether they can carry such legal goods as physical integrity and privacy. They also argue that it is only when the AI develops to the point where the robot can actually understand the meaning of his actions and guide his conduct that he will be able to bear the guilt of a human being. However, at this stage of development, there is neither the need nor the basis for giving AI a legal personality<\/p>\n\n\n\n<p class=\"has-text-align-justify\">It is possible that the legislator will have to face this problem, but not yet &#8211; only when the artificial intelligence is equal to human beings.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>[1] legal action &#8211; a conventional action (constructed by a legal norm) of a civil law entity.<\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Brief history of the electronic personality [eng\/pl] \u017byjemy w czasach, w kt\u00f3rym roboty i systemy wyposa\u017cone w sztuczn\u0105 inteligencj\u0119 (SI) zacz\u0119\u0142y zast\u0119powa\u0107 ludzi, co szczeg\u00f3lnie widoczne jest na rynku pracy. Automatyzacja sprawia, \u017ce zast\u0119powani s\u0105 pracownicy nie tylko fizyczni, ale tak\u017ce umys\u0142owi &#8211; prawnicy, czy maklerzy. Ju\u017c w 2017 roku Goldman Sachs w Nowym Jorku [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[3],"tags":[],"class_list":["post-181","post","type-post","status-publish","format-standard","hentry","category-general"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/181","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/comments?post=181"}],"version-history":[{"count":0,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/181\/revisions"}],"wp:attachment":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/media?parent=181"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/categories?post=181"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/tags?post=181"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}