Sztuczna inteligencja (SI) niesie nie tylko potencjalne korzyści, ale może stanowić również zagrożenie dla przeciętnego człowieka.
Doskonałym na to przykładem są ostatnie wydarzenia w Stanach Zjednoczonych, których jesteśmy aktualnie świadkami. Kraj zalała fala protestów po zabójstwie Georga Floyda, brutalnie zatrzymanego, przez jednego z policjantów w Minneapolis. Policjant skuł go kajdankami i przycisnął jego kark kolanem do ziemi. Funkcjonariusz zignorował błagania Floyda, który nie mógł oddychać. W następstwie tego George Floyd zmarł. To dramatyczne wydarzenie zostało nagrane i opublikowane w mediach społecznościowych, rozpoczynając protesty obywateli. Śmierć ta wpisywała się bowiem w serię zabójstw na nieuzbrojonych Afroamerykanach w trakcie interwencji policji. Z czasem protesty objęły całe Stany Zjednoczone i przybrały na sile po kolejnych wydarzeniach.
Pod koniec czerwca ACLU (American Civil Liberties Union) złożyło skargę na policję w Detroit po tym, jak czarnoskóry mężczyzna Robert Williams został aresztowany za rzekomą kradzież. Williams był przetrzymywany w celi przez noc, bez podania powodu. Aresztowanie było niesłuszne i oparte o wadliwy algorytm, który zidentyfikował go jako podejrzanego o przestępstwo. Rozmyty obraz CCTV został dopasowany przez algorytm rozpoznawania twarzy do zdjęcia z prawa jazdy Williamsa.
Rozpoznawanie twarzy to technologia biometryczna, która automatycznie dopasowuje twarz danej osoby na podstawie obrazu (np. wideo), do baz danych zarejestrowanych twarzy.
Wydarzenia te spowodowały, że zaczęto zastanawiać się jak niewłaściwe wykorzystanie technologii, takich jak rozpoznawanie twarzy, może wpłynąć na społeczeństwo. Sam Szef policji w Detroit, James Craig, przyznał, że rozpoznawanie twarzy przez SI nie działa w przeważającej większości przypadków. Według badań przeprowadzonych przez Georgetown Law Center – co czwarty amerykański departament policji ma dostęp do technologii rozpoznawania twarzy, a prawie połowa wszystkich dorosłych Amerykanów jest w policyjnej bazie danych.
Zaczęto zastanawiać się także nad kolejnym problemem, czy programy takie jak technologie rozpoznawania twarzy nie będą wzmacniać uprzedzeń rasowych. Aktywiści zaczęli wskazywać, że technologia ta może prowadzić do niesprawiedliwego egzekwowania prawa.
Problem stał się jeszcze bardziej aktualny, kiedy MIT (Massachusetts Institute of Technology) ogłosiło, że usunął zbiór danych, stworzony w 2008 roku, nazwany – 80 Million Tiny Images. Zaprojektowany został on z myślą o szkoleniu SI do wykrywania obiektów i wykorzystywał uczenie maszynowe. Zauważono, że niektóre etykiety (labels) były mizoginistyczne i rasistowskie, a na podstawie takich danych tworzono później systemy sztucznej inteligencji. MIT nie był świadomy istnienia takich obraźliwych etykiet, przeprosił i poprosił o niekorzystanie z tych danych oraz usunięcie ich ewentualnych kopii.
To nie jedyny przykład na zastosowanie danych, które mogą prowadzić do naruszenia praw człowieka.
Amazon, IBM i Microsoft wycofały się ze sprzedaży organom ścigania technologii rozpoznawania twarzy bez wprowadzenia odpowiednich przepisów chroniących przed nieuczciwym wykorzystaniem. Takie przepisy nie istnieją, a powinny były powstać jeszcze PRZED podjęciem decyzji o wykorzystywaniu technologii, która bezpośrednio ingeruje w nasze życie. Firmy wezwały amerykański Kongres do wprowadzenia odpowiednich regulacji opartych na prawach człowieka, a także do rozpoczęcia dialogu społecznego w jaki sposób technologie te mogą wpływać na społeczeństwo. To, że tych trzech technologicznych gigantów zdecydowało się na taki krok, nie oznacza, że technologii nie będzie można nabyć od innych sprzedawców, a takich którzy oferują tę technologię jest mnóstwo. Wśród nich wymienić można Clearview AI, Cognite, czy NEC. Według raportu Gartnera z 2019 r. na całym świecie jest ponad 80 dostawców oferujących technologie rozpoznawania twarzy lub weryfikacji twarzy.
Wiadomo, że obecnie wykorzystywane algorytmy SI mogą powodować istotne problemy na tle rasistowskim. MIT i Stanford University przeprowadziły badania, wskazujące na to, że rozpoznawanie twarzy jest bardziej dokładne w przypadku stosowania ich u białych ludzi. W 2018 roku ACLU udowodnił, że algorytm używany przez Amazon – Rekognition – udostępniany amerykańskim agencjom rządowym i policji w Orlando – był niedokładny i pomylił amerykańskich kongresmenów z przestępcami poszukiwanymi listami gończymi.
W Stanach Zjednoczonych coraz więcej miast (Boston, San Francisco, Oakland) decyduje się na zakaz stosowania technologii rozpoznawania twarzy argumentując naruszeniem praw człowieka. Na naszym europejskim podwórku – do mediów wyciekła informacja, że Komisja Europejska na początku roku 2020 zastanawiała się nad wprowadzeniem pięcioletniego zakazu wykorzystywania technologii rozpoznawania twarzy w miejscach publicznych. Zakazowi nie podlegałyby projekty z dziedziny bezpieczeństwa, badawcze i rozwojowe. UE oficjalnie wycofała się z tych planów i kraje członkowskie UE mogą korzystać z tej technologii. Niektóre państwa – takie jak Niemcy, Francja już powszechnie z niej korzystają. W tym pierwszym wprowadzono automatyczne rozpoznawanie twarzy na 134 dworcach kolejowych i 14 lotniskach.
To nie jedyne problemy o jakich można mówić w odniesieniu do tej technologii. W artykule A Deep Neural Network Model to Predict Criminality Using Image Processing stwierdzono, że SI będzie mogła przewidzieć, czy dana osoba stanie się przestępcą tylko w oparciu o automatycznie rozpoznawanie twarzy. W odpowiedzi na to ponad 1000 naukowców i ekspertów, w tym pracownicy pracujący nad SI z Microsoft, Google, czy Facebook, podpisało list otwarty sprzeciwiający się wykorzystywaniu tej technologii w celu przewidywania popełniania przestępstw. W liście, sygnatariusze przedstawiają problematyczne kwestie, z którymi zmierza się dzisiejsza technologia wykorzystująca SI, a które sprawiają, że ich użycie do przewidywania przestępstw może być niebezpieczne. Jednym z głównym powodów niepokoju są wspomniane uprzedzenia rasowe algorytmów. Każdy obecny system rozpoznawania twarzy jest dokładniejszy przy wykrywaniu białych osób i często nieprawidłowo dla oznaczenia osób o innym kolorze skóry.
Spójrzmy jeszcze na Chiny, gdzie rozpoznawanie twarzy staje się powszechną praktyką. Tam technologia tego typu dostępna jest już praktycznie wszędzie. Jest elementem systemu społecznego zaufania, który nagradza lub każe za określone zachowania. Wizja ta pojawiła się z jednym z popularnych seriali na Netflix – Black Mirror – teraz staje się rzeczywistością.
System rozpoznawania twarzy ma objąć każdego obywatela w Chinach. Od tego jaką ocenę będzie miała dana osoba będzie zależała jego jakość życia: grozić może spowolnienie Internetu, a nawet uniemożliwienie podróżowania. W niektórych przypadkach nawet dzwoniąc do zadłużonej osoby, usłyszymy ostrzeżenie, iż kontaktujemy się z osobą z długami. Na ocenę składa się wiele czynników, np. społeczne (znajomości z niepożądaną osobą), finansowe (zaleganie z płatnościami), polityczne. Panuje więc permanentna inwigilacja.
Chiny poszły o krok dalej i poradziły sobie również z problemem –jak rozpoznawać ludzi w maskach. Pekińska firma Hanwang Technology (Hanvon) opracowała system zdolny rozpoznawać ludzi, którzy mają zakryte twarze.
Technologia rozpoznawania twarzy nie tylko wykorzystywana jest w smartfonach, czy na Facebooku do tagowania zdjęć. Jest potężnym narzędziem wykorzystywanym przez państwa i może stanowić ogromne zagrożenie dla demokratycznego społeczeństwa, umożliwiając inwigilacje na masową skalę. Algorytmy są też nieskuteczne w przypadku identyfikowania osób o innym, niż biały, kolorze skóry, a to może budzić dodatkowe obawy. Technologia powinna pomagać ludziom a nie szerzyć niesprawiedliwość i być zagrożeniem. Należy jak najszybciej prawnie ją uregulować, by nie dopuścić do naruszenia prywatności i dalszego łamania praw człowieka.