{"id":143,"date":"2020-07-07T13:40:22","date_gmt":"2020-07-07T11:40:22","guid":{"rendered":"http:\/\/ailaw.news\/?p=143"},"modified":"2020-07-07T13:40:22","modified_gmt":"2020-07-07T11:40:22","slug":"czy-algorytmy-zdolne-sa-do-dyskryminacji-i-uprzedzen","status":"publish","type":"post","link":"https:\/\/ailaw.news\/pl\/czy-algorytmy-zdolne-sa-do-dyskryminacji-i-uprzedzen\/","title":{"rendered":"Czy algorytmy zdolne s\u0105 do dyskryminacji i uprzedze\u0144?"},"content":{"rendered":"<h2 class=\"has-text-align-center wp-block-heading\">May algorithms show bias and discriminate?<\/h2>\n\n\n\n<p>[ENG\/PL]<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Sztuczna inteligencja (SI) niesie nie tylko potencjalne <strong>korzy\u015bci<\/strong>, ale mo\u017ce stanowi\u0107 r\u00f3wnie\u017c <strong>zagro\u017cenie<\/strong> dla przeci\u0119tnego cz\u0142owieka.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Doskona\u0142ym na to przyk\u0142adem s\u0105 ostatnie wydarzenia w Stanach Zjednoczonych, kt\u00f3rych jeste\u015bmy aktualnie \u015bwiadkami. Kraj zala\u0142a fala protest\u00f3w po zab\u00f3jstwie <strong>Georga Floyda<\/strong>, brutalnie zatrzymanego, przez jednego z policjant\u00f3w w Minneapolis. Policjant sku\u0142 go kajdankami i przycisn\u0105\u0142 jego kark kolanem do ziemi. Funkcjonariusz zignorowa\u0142 b\u0142agania Floyda, kt\u00f3ry nie m\u00f3g\u0142 oddycha\u0107. W nast\u0119pstwie tego George Floyd zmar\u0142. To dramatyczne wydarzenie zosta\u0142o nagrane i opublikowane w mediach spo\u0142eczno\u015bciowych, rozpoczynaj\u0105c protesty obywateli. \u015amier\u0107 ta wpisywa\u0142a si\u0119 bowiem w seri\u0119 zab\u00f3jstw na nieuzbrojonych Afroamerykanach w trakcie interwencji policji. Z czasem protesty obj\u0119\u0142y ca\u0142e Stany Zjednoczone i przybra\u0142y na sile po kolejnych wydarzeniach.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Pod koniec czerwca <strong>ACLU<\/strong> (American Civil Liberties Union)&nbsp;z\u0142o\u017cy\u0142o skarg\u0119 na policj\u0119 w Detroit po tym, jak czarnosk\u00f3ry m\u0119\u017cczyzna Robert Williams zosta\u0142 aresztowany za rzekom\u0105 kradzie\u017c. Williams by\u0142 przetrzymywany w celi przez noc, bez podania powodu. Aresztowanie by\u0142o nies\u0142uszne i oparte o wadliwy algorytm, kt\u00f3ry zidentyfikowa\u0142 go jako podejrzanego o przest\u0119pstwo. Rozmyty obraz CCTV zosta\u0142 dopasowany przez algorytm rozpoznawania twarzy do zdj\u0119cia z prawa jazdy Williamsa.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><strong>Rozpoznawanie twarzy<\/strong> to <strong>technologia biometryczna<\/strong>, kt\u00f3ra automatycznie dopasowuje twarz danej osoby na podstawie obrazu (np. wideo), do baz danych zarejestrowanych twarzy.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Wydarzenia te spowodowa\u0142y, \u017ce zacz\u0119to zastanawia\u0107 si\u0119 jak niew\u0142a\u015bciwe wykorzystanie technologii, takich jak rozpoznawanie twarzy, mo\u017ce wp\u0142yn\u0105\u0107 na spo\u0142ecze\u0144stwo. Sam Szef policji w Detroit, James Craig, przyzna\u0142, \u017ce <em>rozpoznawanie twarzy przez SI nie dzia\u0142a w przewa\u017caj\u0105cej wi\u0119kszo\u015bci przypadk\u00f3w.<\/em> Wed\u0142ug bada\u0144 przeprowadzonych przez Georgetown Law Center &#8211; co czwarty ameryka\u0144ski departament policji ma dost\u0119p do technologii rozpoznawania twarzy, a prawie po\u0142owa wszystkich doros\u0142ych Amerykan\u00f3w jest w policyjnej bazie danych.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Zacz\u0119to zastanawia\u0107 si\u0119 tak\u017ce nad kolejnym problemem, czy <strong>programy takie jak technologie rozpoznawania twarzy nie b\u0119d\u0105 wzmacnia\u0107 uprzedze\u0144 rasowych.<\/strong> Aktywi\u015bci zacz\u0119li wskazywa\u0107, \u017ce technologia ta mo\u017ce prowadzi\u0107 do niesprawiedliwego egzekwowania prawa.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Problem sta\u0142 si\u0119 jeszcze bardziej aktualny, kiedy <strong>MIT<\/strong> (Massachusetts Institute of Technology) og\u0142osi\u0142o, \u017ce usun\u0105\u0142 zbi\u00f3r danych, stworzony w 2008 roku, nazwany &#8211; <strong>80 Million Tiny Images<\/strong>. Zaprojektowany zosta\u0142 on z my\u015bl\u0105 o szkoleniu SI do wykrywania obiekt\u00f3w i wykorzystywa\u0142 uczenie maszynowe. Zauwa\u017cono, \u017ce niekt\u00f3re etykiety (labels) by\u0142y mizoginistyczne i rasistowskie, a na podstawie takich danych tworzono p\u00f3\u017aniej systemy sztucznej inteligencji. MIT nie by\u0142 \u015bwiadomy istnienia takich obra\u017aliwych etykiet, przeprosi\u0142 i poprosi\u0142 o niekorzystanie z tych danych oraz usuni\u0119cie ich ewentualnych kopii.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">To nie jedyny przyk\u0142ad na zastosowanie danych, kt\u00f3re mog\u0105 prowadzi\u0107 do naruszenia <strong>praw<\/strong> <strong>cz\u0142owieka<\/strong>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><strong>Amazon, IBM i Microsoft<\/strong> wycofa\u0142y si\u0119 ze sprzeda\u017cy organom \u015bcigania technologii rozpoznawania twarzy bez wprowadzenia odpowiednich przepis\u00f3w chroni\u0105cych przed nieuczciwym wykorzystaniem. Takie przepisy nie istniej\u0105, a powinny by\u0142y powsta\u0107 jeszcze <strong>PRZED<\/strong> podj\u0119ciem decyzji o wykorzystywaniu &nbsp;technologii, kt\u00f3ra bezpo\u015brednio ingeruje w nasze \u017cycie. Firmy wezwa\u0142y ameryka\u0144ski Kongres do wprowadzenia odpowiednich regulacji opartych na prawach cz\u0142owieka, a tak\u017ce do rozpocz\u0119cia dialogu spo\u0142ecznego w jaki spos\u00f3b technologie te mog\u0105 wp\u0142ywa\u0107 na spo\u0142ecze\u0144stwo. To, \u017ce tych trzech technologicznych gigant\u00f3w zdecydowa\u0142o si\u0119 na taki krok, nie oznacza, \u017ce technologii nie b\u0119dzie mo\u017cna naby\u0107 od innych sprzedawc\u00f3w, a takich kt\u00f3rzy oferuj\u0105 t\u0119 technologi\u0119 jest mn\u00f3stwo. W\u015br\u00f3d nich wymieni\u0107 mo\u017cna <strong>Clearview AI, Cognite, czy NEC.<\/strong> Wed\u0142ug raportu Gartnera z 2019 r. na ca\u0142ym \u015bwiecie jest ponad 80 dostawc\u00f3w oferuj\u0105cych technologie rozpoznawania twarzy lub weryfikacji twarzy.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Wiadomo, \u017ce obecnie wykorzystywane algorytmy SI mog\u0105 powodowa\u0107 istotne problemy na tle rasistowskim. <strong>MIT i Stanford University<\/strong> przeprowadzi\u0142y <a rel=\"noreferrer noopener\" href=\"http:\/\/news.mit.edu\/2018\/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212\" target=\"_blank\">badania<\/a><a href=\"http:\/\/news.mit.edu\/2018\/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212\">,<\/a> wskazuj\u0105ce na to, \u017ce rozpoznawanie twarzy jest bardziej dok\u0142adne w przypadku stosowania ich u bia\u0142ych ludzi. W 2018 roku ACLU udowodni\u0142, \u017ce algorytm u\u017cywany przez Amazon \u2013 <strong>Rekognition<\/strong> \u2013 udost\u0119pniany ameryka\u0144skim agencjom rz\u0105dowym i policji w Orlando \u2013 by\u0142 niedok\u0142adny i pomyli\u0142 ameryka\u0144skich kongresmen\u00f3w z przest\u0119pcami poszukiwanymi listami go\u0144czymi.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">W Stanach Zjednoczonych coraz wi\u0119cej miast (<strong>Boston, San Francisco, Oakland<\/strong>) decyduje si\u0119 na zakaz stosowania technologii rozpoznawania twarzy argumentuj\u0105c  naruszeniem praw cz\u0142owieka. Na naszym europejskim podw\u00f3rku \u2013 do medi\u00f3w wyciek\u0142a informacja, \u017ce Komisja Europejska na pocz\u0105tku roku 2020 zastanawia\u0142a si\u0119 nad wprowadzeniem pi\u0119cioletniego zakazu wykorzystywania technologii rozpoznawania twarzy w miejscach publicznych. Zakazowi nie podlega\u0142yby projekty z dziedziny bezpiecze\u0144stwa, badawcze i rozwojowe. UE oficjalnie wycofa\u0142a si\u0119 z tych plan\u00f3w i kraje cz\u0142onkowskie <strong>UE mog\u0105 korzysta\u0107 z tej technologii<\/strong>. Niekt\u00f3re pa\u0144stwa \u2013 takie jak Niemcy, Francja ju\u017c powszechnie z niej korzystaj\u0105. W tym pierwszym wprowadzono automatyczne rozpoznawanie twarzy na 134 dworcach kolejowych i 14 lotniskach.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">To nie jedyne problemy o jakich mo\u017cna m\u00f3wi\u0107 w odniesieniu do tej technologii. W artykule <em>A Deep Neural Network Model to Predict Criminality Using Image Processing <\/em>stwierdzono, \u017ce SI b\u0119dzie mog\u0142a przewidzie\u0107, czy dana osoba stanie si\u0119 przest\u0119pc\u0105 tylko w oparciu o automatycznie rozpoznawanie twarzy. W odpowiedzi na to ponad <strong>1000 naukowc\u00f3w i ekspert\u00f3w,<\/strong> w tym pracownicy pracuj\u0105cy nad SI z Microsoft, Google, czy Facebook, podpisa\u0142o <strong>list otwarty <\/strong>sprzeciwiaj\u0105cy si\u0119 wykorzystywaniu tej technologii w celu przewidywania pope\u0142niania przest\u0119pstw. W li\u015bcie, sygnatariusze przedstawiaj\u0105 problematyczne kwestie, z kt\u00f3rymi zmierza si\u0119 dzisiejsza technologia wykorzystuj\u0105ca SI, a kt\u00f3re sprawiaj\u0105, \u017ce ich u\u017cycie do przewidywania przest\u0119pstw mo\u017ce by\u0107 niebezpieczne. Jednym z g\u0142\u00f3wnym powod\u00f3w niepokoju s\u0105 wspomniane uprzedzenia rasowe algorytm\u00f3w. Ka\u017cdy obecny system rozpoznawania twarzy jest dok\u0142adniejszy przy wykrywaniu bia\u0142ych os\u00f3b i cz\u0119sto nieprawid\u0142owo dla oznaczenia os\u00f3b o innym kolorze sk\u00f3ry.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Sp\u00f3jrzmy jeszcze na <strong>Chiny<\/strong>, gdzie rozpoznawanie twarzy staje si\u0119 powszechn\u0105 praktyk\u0105. Tam technologia tego typu dost\u0119pna jest ju\u017c praktycznie wsz\u0119dzie. Jest elementem systemu spo\u0142ecznego zaufania, kt\u00f3ry nagradza lub ka\u017ce za okre\u015blone zachowania. Wizja ta pojawi\u0142a si\u0119 z jednym z popularnych seriali na Netflix &#8211; <em>Black Mirror<\/em> \u2013 teraz staje si\u0119 rzeczywisto\u015bci\u0105.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">System rozpoznawania twarzy ma obj\u0105\u0107 ka\u017cdego obywatela w Chinach. Od tego jak\u0105 ocen\u0119 b\u0119dzie mia\u0142a dana osoba b\u0119dzie zale\u017ca\u0142a jego jako\u015b\u0107 \u017cycia: grozi\u0107 mo\u017ce spowolnienie Internetu, a nawet uniemo\u017cliwienie podr\u00f3\u017cowania. W niekt\u00f3rych przypadkach nawet dzwoni\u0105c do zad\u0142u\u017conej osoby, us\u0142yszymy ostrze\u017cenie, i\u017c kontaktujemy si\u0119 z osob\u0105 z d\u0142ugami. Na ocen\u0119 sk\u0142ada si\u0119 wiele czynnik\u00f3w, np. spo\u0142eczne (znajomo\u015bci z niepo\u017c\u0105dan\u0105 osob\u0105), finansowe (zaleganie z p\u0142atno\u015bciami), polityczne. Panuje wi\u0119c <strong>permanentna inwigilacja<\/strong>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Chiny posz\u0142y o krok dalej i poradzi\u0142y sobie r\u00f3wnie\u017c z problemem \u2013jak rozpoznawa\u0107 ludzi w maskach. Peki\u0144ska firma <strong>Hanwang Technology (Hanvon<\/strong>) opracowa\u0142a system zdolny rozpoznawa\u0107 ludzi, kt\u00f3rzy maj\u0105 zakryte twarze.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Technologia rozpoznawania twarzy nie tylko wykorzystywana jest w smartfonach, czy na Facebooku do tagowania zdj\u0119\u0107. Jest pot\u0119\u017cnym narz\u0119dziem wykorzystywanym przez pa\u0144stwa i mo\u017ce stanowi\u0107 ogromne zagro\u017cenie dla demokratycznego spo\u0142ecze\u0144stwa, umo\u017cliwiaj\u0105c inwigilacje na masow\u0105 skal\u0119. Algorytmy s\u0105 te\u017c nieskuteczne w przypadku identyfikowania os\u00f3b o innym, ni\u017c bia\u0142y,&nbsp;kolorze sk\u00f3ry, a to mo\u017ce budzi\u0107 dodatkowe obawy. Technologia powinna pomaga\u0107 ludziom a nie szerzy\u0107 niesprawiedliwo\u015b\u0107 i by\u0107 zagro\u017ceniem. Nale\u017cy jak najszybciej prawnie j\u0105 uregulowa\u0107, by nie dopu\u015bci\u0107 do naruszenia prywatno\u015bci i dalszego \u0142amania praw cz\u0142owieka.<\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p>ENG.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Artificial intelligence (AI) not only has potential <strong>benefits<\/strong>, but can also be a <strong>threat<\/strong> to the individuals.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">An excellent example of this is the recent events in the United States, which we are currently witnessing. The wave of protests has swept through the country after the murder of <strong>Georg Floyd<\/strong>, who was brutally detained by a police officer in Minneapolis. The policeman handcuffed him and pressed his neck to the ground. The officer ignored Floyd&#8217;s pleas, who could not breathe. As a result, George Floyd died. This dramatic event was recorded and published in the social media, starting the citizens&#8217; protests. This death was part of series of killings of unarmed Afro-Americans during police intervention. Over time, the protests spread throughout the United States and intensified afterwards.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">At the end of June, the <strong>ACLU<\/strong> (American Civil Liberties Union) filed a complaint against <strong>Detroit Police <\/strong>after a black man, <strong>Robert Williams<\/strong>, was arrested for alleged theft. Williams was held in a cell overnight for no reason. The arrest was wrong and based on a flawed algorithm that identified him as a criminal suspect. The fuzzy CCTV image was matched by a facial recognition algorithm to an image from Williams&#8217; driver&#8217;s license.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><strong>Face recognition <\/strong>is a <strong>biometric technology<\/strong> that automatically matches a person&#8217;s face based on an image (e.g. video) to databases of recorded faces.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">These events have led to a reflection on how the misuse of technologies, such as facial recognition, can affect society. Detroit&#8217;s Chief of Police, James Craig, admitted that AI facial recognition does not work in the vast majority of cases. According to the research conducted by the Georgetown Law Center, one in four American police departments has access to facial recognition technology, and almost half of all adult Americans are in the police database.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Another problem has been raised as to whether programs such as facial recognition technologies will <strong>strengthen racial bias.<\/strong> Activists began to point out that this technology could lead to unfair enforcement.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">The problem became even more relevant when <strong>MIT<\/strong> (Massachusetts Institute of Technology) announced that it had removed a dataset, created in 2008, called <strong>80 Million Tiny Images.<\/strong> It was designed for AI training to detect objects and used machine learning. It was noted that some labels were misogynistic and racist, and artificial intelligence systems were later created based on such data. MIT was not aware of the existence of such offensive labels, apologized and asked not to use this data and to remove any copies.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">This is not the only example of using data that can lead to<strong> human rights violations<\/strong>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\"><strong>Amazon, IBM and Microsoft<\/strong> have withdrawn from the sale of facial recognition technology to law enforcement authorities without adequate laws to protect against misuse. Such laws do not exist, and should have existed <strong>BEFORE<\/strong> deciding to use technology that directly affects our lives. Companies have demanded that the U.S. Congress must introduce appropriate <strong>human rights-based regulations<\/strong>, and to initiate a social dialogue on how these technologies can affect the society. Just because these three technology giants have decided to do so, does not mean that technology cannot be purchased from other vendors, and there are many who offer it. These include Cle<strong>arview AI, Cognite and NEC<\/strong>. According to Gartner&#8217;s 2019 report, there are more than 80 vendors worldwide offering face recognition or face verification technology.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">It is well known that current AI algorithms can cause significant racist problems. MIT and Stanford University have conducted <a rel=\"noreferrer noopener\" href=\"http:\/\/news.mit.edu\/2018\/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212\" target=\"_blank\">research<\/a> indicating that face recognition is more accurate when applied to white people. In 2018, the ACLU proved that the algorithm used by Amazon &#8211; <strong>Rekognition<\/strong> &#8211; shared with U.S. government agencies and Orlando police &#8211; was inaccurate and mistaken U.S. congressmen with criminals on the wanted baillists.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">In the United States, more and more cities (<strong>Boston, San Francisco, Oakland<\/strong>) decide to ban facial recognition technology on the grounds of human rights violations. In our European backyard &#8211; information leaked to the media that the European Commission at the beginning of 2020 was considering a five-year ban on the use of facial recognition technology in public places. The ban would not apply to security, research and development projects. The EU has officially withdrawn from these plans and <strong>EU member states can use this technology<\/strong>. Some countries &#8211; such as Germany and France &#8211; already use it widely. The former introduced automatic face recognition at 134 railway stations and 14 airports.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">These are not the only problems you can raise in relation to this technology. In the article <em>A Deep Neural Network Model to Predict Criminality Using Image Processing<\/em> it is stated that the AI will be able to predict whether a person will become a criminal only on the basis of automatic face recognition. In response, more than<strong> 1,000 researchers and experts,<\/strong> including employees working on the AI from Microsoft, Google or Facebook, have signed <strong>an open letter<\/strong> opposing the use of this technology to predict the commission of crimes. In the letter, the signatories present the problematic issues faced by today&#8217;s AI technology, which make it dangerous to use it to predict crimes. One of the main reasons for concern is the mentioned racial bias of the algorithms. Any current facial recognition system is more accurate in detecting white people and often incorrectly marked people with a different skin colour.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Let&#8217;s take a look at <strong>Chiny<\/strong>, where facial recognition is becoming common practice. There, this kind of technology is already available almost everywhere. It is part of a system of <strong>social trust<\/strong> that rewards or punishes for certain behaviors. This vision appeared with one of the popular series on Netflix &#8211; <em>Black Mirro<\/em>r and now is becoming a reality.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">The face recognition system is to reach every citizen in China. The quality of life will depend on the person&#8217;s assessment: the risk is that the Internet may slow down or even prevent them from travelling. In some cases, even if you call a person in debt, you will hear a warning that you are contacting a person in debt. The assessment is made up of many factors, e.g. social (acquaintance with the unwanted person), financial (arrears with payments), political. So there is <strong>constant surveillance<\/strong>.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">China has gone one step further and has also dealt with the problem of how to recognize people in masks. The Beijing-based company <strong>Hanwang<\/strong> <strong>Technology<\/strong> (<strong>Hanvon<\/strong>) has developed a system capable of recognizing people who have their faces covered.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Face recognition technology is not only used in smartphones or on Facebook to tag photos. It is a powerful tool used by states and can pose a huge threat to democratic society, allowing <strong>mass surveillance.<\/strong> Algorithms are also ineffective when identifying people with a different skin colour than white, and this can raise additional concerns. Technology should help people, not spread injustice and be a threat. <strong>It should be legally regulated<\/strong> as soon as possible in order to prevent violations of privacy and further violations of human rights.<\/p>\n\n\n\n<p class=\"has-text-align-right\">Agata Konieczna<\/p>","protected":false},"excerpt":{"rendered":"<p>May algorithms show bias and discriminate? [ENG\/PL] Sztuczna inteligencja (SI) niesie nie tylko potencjalne korzy\u015bci, ale mo\u017ce stanowi\u0107 r\u00f3wnie\u017c zagro\u017cenie dla przeci\u0119tnego cz\u0142owieka. Doskona\u0142ym na to przyk\u0142adem s\u0105 ostatnie wydarzenia w Stanach Zjednoczonych, kt\u00f3rych jeste\u015bmy aktualnie \u015bwiadkami. Kraj zala\u0142a fala protest\u00f3w po zab\u00f3jstwie Georga Floyda, brutalnie zatrzymanego, przez jednego z policjant\u00f3w w Minneapolis. Policjant sku\u0142 [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[3],"tags":[14,15,19,27],"class_list":["post-143","post","type-post","status-publish","format-standard","hentry","category-general","tag-artificial-intelligence","tag-artificial-law","tag-facial-recognition","tag-technology"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/143","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/comments?post=143"}],"version-history":[{"count":0,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/143\/revisions"}],"wp:attachment":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/media?parent=143"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/categories?post=143"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/tags?post=143"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}