{"id":311,"date":"2020-10-01T09:34:54","date_gmt":"2020-10-01T07:34:54","guid":{"rendered":"https:\/\/atomic-temporary-179435686.wpcomstaging.com\/?p=311"},"modified":"2020-10-01T09:34:54","modified_gmt":"2020-10-01T07:34:54","slug":"deepfake-nowy-wymiar-manipulacji-2","status":"publish","type":"post","link":"https:\/\/ailaw.news\/pl\/deepfake-nowy-wymiar-manipulacji-2\/","title":{"rendered":"Deepfake \u2013 nowy wymiar manipulacji?"},"content":{"rendered":"<p><strong>Deepfake<\/strong> (od ang. <em>deep learning<\/em> \u2013 uczenie maszynowe i ang. <em>fake<\/em> &#8211; sztuczny) to technologia wykorzystuj\u0105ca sztuczn\u0105 inteligencj\u0119 (<strong>SI<\/strong>), kt\u00f3ra zajmuje si\u0119 obr\u00f3bk\u0105 obrazu. Dzi\u0119ki niej mo\u017cemy uzyska\u0107 realistyczne ruchome obrazy poprzez na\u0142o\u017cenie twarzy konkretnej osoby na dowoln\u0105 inn\u0105 posta\u0107. Technologia ta mo\u017ce sprawi\u0107, \u017ce osoby robi\u0105 b\u0105d\u017a m\u00f3wi\u0105 rzeczy, kt\u00f3re w rzeczywisto\u015bci nigdy by nie zrobi\u0142y lub nie powiedzia\u0142y.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Technologia wykorzystuje uczenie maszynowe i sztuczne sieci neuronowe, kt\u00f3re szkolone s\u0105 przyk\u0142adach twarzy aktor\u00f3w i docelowej \u201etwarzy\u201d.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Poni\u017cej przyk\u0142adowy filmik pokazuj\u0105cy, w jaki spos\u00f3b tworzony jest deepfake &#8211; <\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Deepfake Videos Are Getting Terrifyingly Real\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/T76bK2t2r8g?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"has-text-align-justify\">Po raz pierwszy okre\u015blenie to pojawi\u0142o si\u0119 w 2017 roku, kiedy wykorzystano t\u0119 technologi\u0119 do zmodyfikowania film\u00f3w dla doros\u0142ych, w taki spos\u00f3b, aby przedstawia\u0142y one twarze znanych aktor\u00f3w. W kwietniu 2018 roku serwis Buzzfeed stworzy\u0142 przyk\u0142ad politycznego deepfake&#8217;u &#8211; wideo, w kt\u00f3rym Barack Obama nazywa prezydenta Donalda Trumpa g\u0142upkiem. Pokazuj\u0105c tym samym, jak wielki wp\u0142yw mo\u017ce mie\u0107 ta technologia na polityk\u0119.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Rozw\u00f3j i powszechne u\u017cycie tej technologii spowodowa\u0142o, \u017ce zacz\u0119to zastanawia\u0107 si\u0119 nad jej ewentualnymi konsekwencjami, a tak\u017ce nad wp\u0142ywem jaki mo\u017ce mie\u0107 na spo\u0142ecze\u0144stwo i rozpowszechnianie fake news\u00f3w.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Przyk\u0142ad\u00f3w na deepfake wykorzystuj\u0105cych wizerunek s\u0142awnych os\u00f3b jest wiele. Stworzono nie tylko wideo z fa\u0142szywym <strong>Barackiem Obam\u0105<\/strong>, kt\u00f3re mo\u017cna zobaczy\u0107 tutaj:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Jordan Peele uses AI, President Obama in fake news PSA\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/bE1KWpoX9Hk?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"has-text-align-justify\">ale tak\u017ce z <strong>Markiem Zuckerbergiem<\/strong>, kt\u00f3ry wyg\u0142osi\u0142 kr\u00f3tk\u0105 mow\u0119 skierowan\u0105 do widz\u00f3w &nbsp;\u2013 <em>Wyobra\u017a to sobie. Jeden cz\u0142owiek z ca\u0142kowit\u0105 kontrol\u0105 nad skradzionymi danymi miliard\u00f3w ludzi. Wszystkie ich sekrety, ich \u017cycie, ich przysz\u0142o\u015b\u0107.. <\/em>\u2013 m\u00f3wi na nagraniu, kt\u00f3re mo\u017cna obejrze\u0107 poni\u017cej<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Mark Zuckerberg \u2018deepfake\u2019 will remain online\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/NbedWhzx1rs?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"has-text-align-justify\"><strong>Fa\u0142szowanie wiadomo\u015bci <\/strong>osi\u0105gn\u0119\u0142o nowy wymiar, a deepfake mo\u017ce r\u00f3wnie\u017c stanowi\u0107 zagro\u017cenie dla porz\u0105dku politycznego kraju, czy wynik\u00f3w wybor\u00f3w. Mo\u017ce by\u0107 wykorzystany w celu podzielenia elektoratu, czy zmian zachowa\u0144 wyborczych. Jednym z najg\u0142o\u015bniejszych przypadk\u00f3w by\u0142 ten z rzekomym udzia\u0142em <strong>Nancy Pelosi<\/strong>, spikera Izby Reprezentant\u00f3w Stan\u00f3w Zjednoczonych. W 2018 roku na portalach spo\u0142eczno\u015bciowych ukaza\u0142 si\u0119 film, kt\u00f3ry przedstawia\u0142 pijan\u0105 Pelosi. Filmik mia\u0142 by\u0107 zabawny, ale pokaza\u0142 jak deepfake mo\u017ce pos\u0142u\u017cy\u0107 do spowodowania szkody dla reputacji.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Doctored Pelosi video highlights the threat of deepfake tech\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/EfREntgxmDs?start=79&#038;feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"has-text-align-justify\">Deepfake ma jednak r\u00f3wnie\u017c oczywisty potencja\u0142 do wykorzystania go w celach oszustwa, do udawania kogo\u015b innego, aby uzyska\u0107 dost\u0119p do takich rzeczy jak konta bankowe, czy dane wra\u017cliwe. Oznacza to, \u017ce fa\u0142szywe wideo nara\u017caj\u0105 firmy, osoby prywatne i rz\u0105d na zwi\u0119kszone ryzyko.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Warto jednak zauwa\u017cy\u0107 pozytywn\u0105 rzecz, kt\u00f3ra wynika z wykorzystania tej technologii przy produkcji film\u00f3w. Pozwala bowiem zobaczy\u0107 zmar\u0142ych aktor\u00f3w lub us\u0142ysze\u0107 nie\u017cyj\u0105cych ju\u017c piosenkarzy. Przyk\u0142adem na pozytywne i zabawne wykorzystanie deepfake jest poni\u017csza piosenka:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"I used AI to make all your favourite movies sing All Star\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/UuaYDZd8-cI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"has-text-align-justify\">U\u017cyto do niej programu Wave2Lip, opieraj\u0105cego si\u0119 na technologii rozpoznawania twarzy i sztucznej inteligencji, tworz\u0105c realistyczn\u0105 iluzj\u0119 synchronizacji ust postaci filmowych z piosenk\u0105.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Takie filmiki mog\u0105 by\u0107 \u017cartobliwe, ale nale\u017cy pami\u0119ta\u0107, \u017ce ci\u0105g\u0142y rozw\u00f3j tej technologii jest przede wszystkim gro\u017any. Wykonane s\u0105 perfekcyjnie, wi\u0119c trudno o krytyczne podej\u015bcie. Potrafi\u0105 szybko zwie\u015b\u0107 widza, kt\u00f3ry wierzy w to, co widzi. W takim wypadku deepfake stanowi niebezpieczne narz\u0119dzie manipulacji. Fakt, \u017ce wiadomo\u015b\u0107 b\u0119dzie rozpowszechniona i wi\u0119cej os\u00f3b b\u0119dzie o niej m\u00f3wi\u0142o, mo\u017ce sprawi\u0107, \u017ce szybciej b\u0119dziemy w stanie w ni\u0105 uwierzy\u0107.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Nale\u017cy pami\u0119ta\u0107, \u017ce dzia\u0142ania, kt\u00f3re b\u0119d\u0105 obra\u017ca\u0142y, czy poni\u017ca\u0142y osob\u0119, kt\u00f3ra przedstawiona jest w filmiku deepfake, mog\u0105 narusza\u0107 jej dobra osobiste. Obecnie polskie prawo wymaga, by osoba, kt\u00f3ra zosta\u0142a obra\u017cona wszcz\u0119\u0142a post\u0119powanie cywilne o naruszenie d\u00f3br osobistych lub o zniewa\u017cenie za pomoc\u0105 \u015brodk\u00f3w masowego przekazu. Niestety na razie przest\u0119pstwa te nie s\u0105 \u015bcigane z urz\u0119du.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Technologia ta ca\u0142y czas si\u0119 rozwija i b\u0119dzie coraz trudniejsza do wykrycia.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Naukowcy pracuj\u0105 nad tym, by stworzy\u0107 narz\u0119dzia do wykrywania deepfake. Na pocz\u0105tku deepfake by\u0142y mniej doskona\u0142e \u2013 np. postaci nie mruga\u0142y lub pojawia\u0142y si\u0119 r\u00f3\u017cnice w kolorze sk\u00f3ry. Inne, nowsze metody wykorzystuj\u0105 algorytmy, kt\u00f3re wykrywaj\u0105 oznaki manipulacji przy kraw\u0119dziach obraz\u00f3w. Jednak deepfake stale si\u0119 ulepsza, co powoduje, \u017ce narz\u0119dzia je wykrywaj\u0105ce przestaj\u0105 by\u0107 aktualne. Firmy takie jak <strong>Facebook<\/strong>, czy Microsoft uruchomi\u0142y ju\u017c narz\u0119dzia, kt\u00f3re wykrywaj\u0105 takie fa\u0142szerstwa. We wrze\u015bniu 2020 roku <strong>Microsoft<\/strong> og\u0142osi\u0142, \u017ce stworzy\u0142 specjalistyczne narz\u0119dzie do wykrywania materia\u0142\u00f3w deepfake, kt\u00f3re analizuje zar\u00f3wno zdj\u0119cia, jak i wideo. Technologia ma walczy\u0107 z dezinformacj\u0105. Firma og\u0142osi\u0142a r\u00f3wnie\u017c powstanie systemu, kt\u00f3ry pomo\u017ce producentom audiowizualnym w osadzeniu w materia\u0142ach przez nich stworzonych \u2013 ukrytego kodu, kt\u00f3ry pomo\u017ce \u015bledzi\u0107 ewentualne zmiany dokonane przez deepfake. System stworzony przez Microsoft dzia\u0142a w oparciu o algorytmy uczenia maszynowego i wykorzystuje prace tysi\u0105ca fa\u0142szywych nagra\u0144 wideo. Nowe narz\u0119dzie nie b\u0119dzie dost\u0119pne publicznie ze wzgl\u0119du na bezpiecze\u0144stwo. Dystrybucja nast\u0105pi tylko przez po\u015brednicz\u0105ce organizacje, dzi\u0119ki czemu osoby zainteresowane wykorzystaniem systemu do szkodliwych dzia\u0142a\u0144 nie b\u0119d\u0105 mog\u0142y uzyska\u0107 jego kodu, by nie ulepszy\u0107 swoich technik manipulacji.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Niedawno pojawi\u0142a si\u0119 r\u00f3wnie\u017c informacja, \u017ce naukowcy z <strong>University College London<\/strong> opublikowali ranking (dost\u0119pny <a rel=\"noreferrer noopener\" href=\"https:\/\/crimesciencejournal.biomedcentral.com\/articles\/10.1186\/s40163-020-00123-8\" target=\"_blank\">tutaj<\/a>) najpowa\u017cniejszych zagro\u017ce\u0144 zwi\u0105zanych z SI. Stworzono list\u0119 20 mo\u017cliwych sposob\u00f3w wykorzystania SI przez przest\u0119pc\u00f3w w ci\u0105gu 15 lat na cele cyberprzest\u0119pczo\u015bci. Uszeregowano je wed\u0142ug wagi zagro\u017cenia, szkody jak\u0105 mog\u0105 wyrz\u0105dzi\u0107, zysku przest\u0119pczego oraz \u0142atwo\u015bci skorzystania z danej metody. Deepfake znalaz\u0142o si\u0119 na szczycie tej listy, gdy\u017c fa\u0142szywe tre\u015bci mog\u0105 by\u0107 trudne do wykrycia i zatrzymania. Niebezpieczne jest r\u00f3wnie\u017c szerokie spektrum zastosowania deepfake \u2013 od zdyskredytowania osoby publicznej po podszycie si\u0119 pod jak\u0105kolwiek osob\u0119 i zdobycie dost\u0119pu do jej konta bankowego.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Wystarczy spojrze\u0107 na przyk\u0142ady i zrozumie\u0107, \u017ce konsekwencje nieuregulowania prawnego deepfake mog\u0105 by\u0107 ogromne. Technologia istnieje i jest ju\u017c powszechnie wykorzystywana. Teraz ka\u017cdy mo\u017ce stworzy\u0107 deepfake, pobieraj\u0105c aplikacj\u0119 na telefon i wykorzysta\u0107 technologi\u0119 do dowolnego celu.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Potrzebne jest nie tylko narz\u0119dzie technologiczne, kt\u00f3re b\u0119dzie pozwala\u0142o na wykrycie potencjalnie sfa\u0142szowanego obrazu, ale tak\u017ce ramy prawne, w graniach kt\u00f3rych b\u0119dzie mo\u017cna tworzy\u0107 deepfake. W grudniu 2018 roku republika\u0144ski senator Ben Sasse z Nebraski zaproponowa\u0142 ustaw\u0119 znan\u0105 jako <em><strong>Malicious Deep Fake Prohibition Act of 2018<\/strong><\/em>, kt\u00f3ra ma na celu zakazanie &#8220;preparowania nagra\u0144 audiowizualnych&#8221;. Ustawa <strong><em>DEEP FAKES Accountability Act<\/em><\/strong> zaproponowana w czerwcu przez reprezentantk\u0119 Demokrat\u00f3w z Nowego Jorku, Yvette Clarke wymaga, aby fa\u0142szowane nagrania by\u0142y wyra\u017anie oznaczone znakiem wodnym. Proponowany projekt ustawy nak\u0142ada\u0142by r\u00f3wnie\u017c kary za naruszenia zasad.<\/p>\n\n\n\n<p class=\"has-text-align-justify\">Deepfake mo\u017ce wzbudzi\u0107 zw\u0105tpienie w realno\u015b\u0107 otaczaj\u0105cego nas \u015bwiata, a jego zastosowanie mo\u017ce przyczyni\u0107 si\u0119 do skutecznej dezinformacji, czy zniszczenia reputacji. Dlatego tak wa\u017cne jest wprowadzenie uregulowa\u0144 prawnych i powszechnego u\u017cycia technologii, kt\u00f3ra mog\u0142aby deepfake wykrywa\u0107.<\/p>","protected":false},"excerpt":{"rendered":"<p>Deepfake (od ang. deep learning \u2013 uczenie maszynowe i ang. fake &#8211; sztuczny) to technologia wykorzystuj\u0105ca sztuczn\u0105 inteligencj\u0119 (SI), kt\u00f3ra zajmuje si\u0119 obr\u00f3bk\u0105 obrazu. Dzi\u0119ki niej mo\u017cemy uzyska\u0107 realistyczne ruchome obrazy poprzez na\u0142o\u017cenie twarzy konkretnej osoby na dowoln\u0105 inn\u0105 posta\u0107. Technologia ta mo\u017ce sprawi\u0107, \u017ce osoby robi\u0105 b\u0105d\u017a m\u00f3wi\u0105 rzeczy, kt\u00f3re w rzeczywisto\u015bci nigdy by [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[8],"tags":[],"class_list":["post-311","post","type-post","status-publish","format-standard","hentry","category-ogolne"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/311","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/comments?post=311"}],"version-history":[{"count":0,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/posts\/311\/revisions"}],"wp:attachment":[{"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/media?parent=311"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/categories?post=311"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ailaw.news\/pl\/wp-json\/wp\/v2\/tags?post=311"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}