Deepfake – nowy wymiar manipulacji?

Deepfake (od ang. deep learning – uczenie maszynowe i ang. fake – sztuczny) to technologia wykorzystująca sztuczną inteligencję (SI), która zajmuje się obróbką obrazu. Dzięki niej możemy uzyskać realistyczne ruchome obrazy poprzez nałożenie twarzy konkretnej osoby na dowolną inną postać. Technologia ta może sprawić, że osoby robią bądź mówią rzeczy, które w rzeczywistości nigdy by nie zrobiły lub nie powiedziały.

Technologia wykorzystuje uczenie maszynowe i sztuczne sieci neuronowe, które szkolone są przykładach twarzy aktorów i docelowej „twarzy”.

Poniżej przykładowy filmik pokazujący, w jaki sposób tworzony jest deepfake –

Po raz pierwszy określenie to pojawiło się w 2017 roku, kiedy wykorzystano tę technologię do zmodyfikowania filmów dla dorosłych, w taki sposób, aby przedstawiały one twarze znanych aktorów. W kwietniu 2018 roku serwis Buzzfeed stworzył przykład politycznego deepfake’u – wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. Pokazując tym samym, jak wielki wpływ może mieć ta technologia na politykę.

Rozwój i powszechne użycie tej technologii spowodowało, że zaczęto zastanawiać się nad jej ewentualnymi konsekwencjami, a także nad wpływem jaki może mieć na społeczeństwo i rozpowszechnianie fake newsów.

Przykładów na deepfake wykorzystujących wizerunek sławnych osób jest wiele. Stworzono nie tylko wideo z fałszywym Barackiem Obamą, które można zobaczyć tutaj:

ale także z Markiem Zuckerbergiem, który wygłosił krótką mowę skierowaną do widzów  – Wyobraź to sobie. Jeden człowiek z całkowitą kontrolą nad skradzionymi danymi miliardów ludzi. Wszystkie ich sekrety, ich życie, ich przyszłość.. – mówi na nagraniu, które można obejrzeć poniżej

Fałszowanie wiadomości osiągnęło nowy wymiar, a deepfake może również stanowić zagrożenie dla porządku politycznego kraju, czy wyników wyborów. Może być wykorzystany w celu podzielenia elektoratu, czy zmian zachowań wyborczych. Jednym z najgłośniejszych przypadków był ten z rzekomym udziałem Nancy Pelosi, spikera Izby Reprezentantów Stanów Zjednoczonych. W 2018 roku na portalach społecznościowych ukazał się film, który przedstawiał pijaną Pelosi. Filmik miał być zabawny, ale pokazał jak deepfake może posłużyć do spowodowania szkody dla reputacji.

Deepfake ma jednak również oczywisty potencjał do wykorzystania go w celach oszustwa, do udawania kogoś innego, aby uzyskać dostęp do takich rzeczy jak konta bankowe, czy dane wrażliwe. Oznacza to, że fałszywe wideo narażają firmy, osoby prywatne i rząd na zwiększone ryzyko.

Warto jednak zauważyć pozytywną rzecz, która wynika z wykorzystania tej technologii przy produkcji filmów. Pozwala bowiem zobaczyć zmarłych aktorów lub usłyszeć nieżyjących już piosenkarzy. Przykładem na pozytywne i zabawne wykorzystanie deepfake jest poniższa piosenka:

Użyto do niej programu Wave2Lip, opierającego się na technologii rozpoznawania twarzy i sztucznej inteligencji, tworząc realistyczną iluzję synchronizacji ust postaci filmowych z piosenką.

Takie filmiki mogą być żartobliwe, ale należy pamiętać, że ciągły rozwój tej technologii jest przede wszystkim groźny. Wykonane są perfekcyjnie, więc trudno o krytyczne podejście. Potrafią szybko zwieść widza, który wierzy w to, co widzi. W takim wypadku deepfake stanowi niebezpieczne narzędzie manipulacji. Fakt, że wiadomość będzie rozpowszechniona i więcej osób będzie o niej mówiło, może sprawić, że szybciej będziemy w stanie w nią uwierzyć.

Należy pamiętać, że działania, które będą obrażały, czy poniżały osobę, która przedstawiona jest w filmiku deepfake, mogą naruszać jej dobra osobiste. Obecnie polskie prawo wymaga, by osoba, która została obrażona wszczęła postępowanie cywilne o naruszenie dóbr osobistych lub o znieważenie za pomocą środków masowego przekazu. Niestety na razie przestępstwa te nie są ścigane z urzędu.

Technologia ta cały czas się rozwija i będzie coraz trudniejsza do wykrycia.

Naukowcy pracują nad tym, by stworzyć narzędzia do wykrywania deepfake. Na początku deepfake były mniej doskonałe – np. postaci nie mrugały lub pojawiały się różnice w kolorze skóry. Inne, nowsze metody wykorzystują algorytmy, które wykrywają oznaki manipulacji przy krawędziach obrazów. Jednak deepfake stale się ulepsza, co powoduje, że narzędzia je wykrywające przestają być aktualne. Firmy takie jak Facebook, czy Microsoft uruchomiły już narzędzia, które wykrywają takie fałszerstwa. We wrześniu 2020 roku Microsoft ogłosił, że stworzył specjalistyczne narzędzie do wykrywania materiałów deepfake, które analizuje zarówno zdjęcia, jak i wideo. Technologia ma walczyć z dezinformacją. Firma ogłosiła również powstanie systemu, który pomoże producentom audiowizualnym w osadzeniu w materiałach przez nich stworzonych – ukrytego kodu, który pomoże śledzić ewentualne zmiany dokonane przez deepfake. System stworzony przez Microsoft działa w oparciu o algorytmy uczenia maszynowego i wykorzystuje prace tysiąca fałszywych nagrań wideo. Nowe narzędzie nie będzie dostępne publicznie ze względu na bezpieczeństwo. Dystrybucja nastąpi tylko przez pośredniczące organizacje, dzięki czemu osoby zainteresowane wykorzystaniem systemu do szkodliwych działań nie będą mogły uzyskać jego kodu, by nie ulepszyć swoich technik manipulacji.

Niedawno pojawiła się również informacja, że naukowcy z University College London opublikowali ranking (dostępny tutaj) najpoważniejszych zagrożeń związanych z SI. Stworzono listę 20 możliwych sposobów wykorzystania SI przez przestępców w ciągu 15 lat na cele cyberprzestępczości. Uszeregowano je według wagi zagrożenia, szkody jaką mogą wyrządzić, zysku przestępczego oraz łatwości skorzystania z danej metody. Deepfake znalazło się na szczycie tej listy, gdyż fałszywe treści mogą być trudne do wykrycia i zatrzymania. Niebezpieczne jest również szerokie spektrum zastosowania deepfake – od zdyskredytowania osoby publicznej po podszycie się pod jakąkolwiek osobę i zdobycie dostępu do jej konta bankowego.

Wystarczy spojrzeć na przykłady i zrozumieć, że konsekwencje nieuregulowania prawnego deepfake mogą być ogromne. Technologia istnieje i jest już powszechnie wykorzystywana. Teraz każdy może stworzyć deepfake, pobierając aplikację na telefon i wykorzystać technologię do dowolnego celu.

Potrzebne jest nie tylko narzędzie technologiczne, które będzie pozwalało na wykrycie potencjalnie sfałszowanego obrazu, ale także ramy prawne, w graniach których będzie można tworzyć deepfake. W grudniu 2018 roku republikański senator Ben Sasse z Nebraski zaproponował ustawę znaną jako Malicious Deep Fake Prohibition Act of 2018, która ma na celu zakazanie “preparowania nagrań audiowizualnych”. Ustawa DEEP FAKES Accountability Act zaproponowana w czerwcu przez reprezentantkę Demokratów z Nowego Jorku, Yvette Clarke wymaga, aby fałszowane nagrania były wyraźnie oznaczone znakiem wodnym. Proponowany projekt ustawy nakładałby również kary za naruszenia zasad.

Deepfake może wzbudzić zwątpienie w realność otaczającego nas świata, a jego zastosowanie może przyczynić się do skutecznej dezinformacji, czy zniszczenia reputacji. Dlatego tak ważne jest wprowadzenie uregulowań prawnych i powszechnego użycia technologii, która mogłaby deepfake wykrywać.

en_US