Kamil Królik Antończak - Deepfake – gdy zabawa staje się zagrożeniem

Deepfakes stały się popularnym tematem rozmów w ostatnich latach. Termin, który pochodzi z połączenia słów “deep learning” i “fake”, odnosi się do technologii, która wykorzystuje sztuczną inteligencję i uczenie maszynowe do tworzenia realistycznie wyglądających obrazów, filmów i nagrań audio ludzi mówiących lub robiących coś, czego nigdy nie zrobili. 

Technologia deepfake, której wielu ludzi używa w postaci np. filtrów do zdjęć, oprócz zabawy jest również potencjalnym zagrożeniem dla naszego bezpieczeństwa i prywatności, a ten artykuł omówi implikacje tej technologii, oraz zaznaczy jak chronić się przed deepfake’ami.

Czym jest technologia deepfake?

Technologia deepfake polega na wykorzystaniu sztucznej inteligencji i uczenia maszynowego do tworzenia realistycznie wyglądających obrazów, filmów i nagrań audio. Technologia ta może być wykorzystywana zarówno do złych celów, takich jak generowanie fałszywych wiadomości, jak i do celów rozrywkowych, takich jak tworzenie zabawnych filmów. Deepfakes mogą służyć do wszystkiego – od tworzenia fałszywej propagandy politycznej po tworzenie przekonujących filmów wideo przedstawiających kogoś, kim się nie jest.

Jedna z najczęściej stosowanych technologii deepfake nazywa się syntezą twarzy. Technologia ta wykorzystuje kombinację algorytmów rozpoznawania twarzy, modelowania 3D i generatywnych sieci przeciwstawnych do tworzenia realistycznie wyglądającej twarzy z obrazu źródłowego. Technologia ta jest wykorzystywana do generowania przekonujących filmów wideo przedstawiających ludzi mówiących lub robiących rzeczy, których nigdy nie robili.

Inną formą deepfake’a jest synteza mowy na tekst. Technologia ta wykorzystuje przetwarzanie języka naturalnego i głębokie uczenie do generowania realistycznie brzmiącej mowy z tekstu.

Technologia deepfake jest wykorzystana do różnych celów. Jednym z jej najczęstszych zastosowań jest rozrywka. Jest tu wykorzystywana do tworzenia zabawnych filmów i obrazów, takich jak celebryckie look-alike’i i animowane postaci. Większość z nas używała nakładek i filtrów na zdjęcia bądź wideo, które to nakładały nam zabawne dodatki do wyglądu, ulepszały wygląd naszej cery czy zamieniały nas w zjawy z horrorów. Jednym z ciekawszych użyć tej technologii w celach rozrywkowych było posłużenie się nią przy produkcji filmów takich jak Szybcy i Wściekli czy Gwiezdne Wojny, gdzie wizerunki zmarłych aktorów zostały naniesione komputerowo na inne osoby. Takie „przywracanie do żywych” rodzi oczywiście wiele pytań natury etycznej, ale kto wie, być może już za kilka lat będziemy świadkami, jak rodziny zmarłych artystów będą sprzedawały licencje na wykorzystywanie wizerunku swoich krewnych przez wytwórnie filmowe czy muzyczne. A świat usłyszy kolejne płyty Michaela Jacksona, 2Paca czy Krzysztofa Krawczyka.

Potencjalne implikacje deepfake’ów są daleko idące. Deepfakes mogą być wykorzystywane do wszystkiego – od zapewniania nam rozrywki do również negatywnego przykładu użycia jak np. tworzenie fałszywej propagandy politycznej i szerzenie dezinformacji przez tworzenie przekonujących filmów wideo przedstawiających osoby, którymi nie są, a co za tym idzie może to doprowadzić do zniszczenia reputacji i kariery wybranych osób takich jak np. głowy państw. W ubiegłym roku byliśmy świadkami tego, jak takie spreparowane materiały wideo mogą zmieniać sytuację np. w konfliktach zbrojnych. W wyniku włamania się do telewizji Ukraine24 został wyemitowany materiał deepfake z prezydentem Ukrainy Wołodymyrem Zelenskim, w którym przywódca ukraiński poinformował o kapitulacji na rzecz Rosji. Na całe szczęście w tym wypadku, działania dezinformacyjne machiny kremlowskiej się nie udały, bowiem dało się zauważyć, chociażby różnice postury pomiędzy osobą na materiale wideo a prawdziwym prezydentem. Rosyjski deepfake użyty w czasie trwającej inwazji na Ukrainę został błyskawicznie zdementowany. Jednak był to pierwszy sygnał, że technologia ta, która będzie coraz doskonalsza, w przyszłych, potencjalnych konfliktach może odegrać już o wiele istotniejszą rolę.

Technologia stojąca za deepfakes jest złożona, ale można ją podzielić na trzy główne kroki.

Pierwszym krokiem jest zebranie źródłowych obrazów i filmów wideo osoby lub obiektu, który ma być replikowany. Dane te są następnie wykorzystywane do szkolenia algorytmu uczenia maszynowego w celu identyfikacji cech materiału źródłowego.

Drugim krokiem jest wygenerowanie sztucznej wersji materiału źródłowego przy użyciu generatywnych sieci przeciwstawnych. Technologia ta wykorzystuje połączenie modeli generatywnych i dyskryminacyjnych do generowania realistycznie wyglądających obrazów i filmów.

Trzecim krokiem jest dopracowanie wygenerowanego obrazu lub wideo za pomocą technik post-processingu. Proces ten obejmuje dostosowanie kolorów, oświetlenia i innych aspektów obrazu lub wideo, aby uczynić go bardziej realistycznym.

Jak rozpoznać Deepfake?

Rozpoznanie deepfake’u może być trudne, ponieważ technologia ta stale się rozwija i ulepsza. Istnieje jednak kilka znaków, które mogą pomóc w identyfikacji deepfake’a.

Jedną z najczęstszych oznak deepfake jest obecność “ghostingu”. Ghosting występuje, gdy obraz lub wideo zawiera obiekty, lub ludzi, którzy są lekko nieostrzy lub mają lekko rozmazany wygląd. Jest to zazwyczaj oznaka deepfake, ponieważ technologia nie jest jeszcze na tyle zaawansowana, aby wyprodukować idealną replikę obrazu lub wideo.

Inną oznaką deepfake jest obecność artefaktów na obrazie lub wideo. Artefakty powodują niedoskonałości obrazu lub wideo, które są wynikiem prób replikacji materiału źródłowego przez algorytm uczenia maszynowego.

Wreszcie, inną oznaką deepfake’u jest obecność nienaturalnej mimiki lub ruchów twarzy. Technologia nie jest jeszcze na tyle zaawansowana, aby dokładnie odwzorować subtelne niuanse naszej mimiki czy ruchów, więc jeśli obraz lub wideo wydaje się być nieznacznie wyłączony, jest to prawdopodobnie deepfake.


Istnieje kilka kroków, które możesz podjąć, aby chronić się przed deepfakes:

Pierwszym krokiem jest świadomość potencjalnych implikacji deepfake’ów i uważanie na treści, które konsumujesz.

Drugim krokiem jest sceptyczne podejście do konsumowanych treści. Jeśli coś wydaje się zbyt piękne, aby mogło być prawdziwe, to prawdopodobnie jest sfałszowane. Upewnij się, że przeprowadzasz własne badania i sprawdzasz fakty w każdej treści, na którą natrafisz.

Trzeci krok polega na tym, aby być świadomym oznak deepfake’u. Jak wspomniałem wcześniej, niektóre z oznak deepfake’u to obecność ghostingu, artefaktów i nienaturalnych wyrazów twarzy lub ruchów.

Wreszcie, czwartym krokiem jest świadomość potencjalnych konsekwencji podrabiania zdjęć cyfrowych. Należy chronić swoje dane i uważać na wszelkie treści, które mogą być potencjalnie wykorzystane do manipulowania rynkami lub szerzenia dezinformacji. Być może metody wyłudzeń na wnuczka przybiorą inną formę i za sprawą naszych zdjęć i filmów udostępnianych publicznie w sieci, obserwujący nas oszuści będą tworzyć materiały, za pomocą których będą starać się wyłudzać pieniądze od naszych przyjaciół i rodziny.

W odpowiedzi na potencjalne implikacje fałszerstw kilka krajów wprowadziło ustawodawstwo i regulacje mające na celu ochronę przed oszustwami typu deepfake.

Jak np. w Stanach Zjednoczonych, gdzie do Kongresu wprowadzono ustawę Algorithmic Accountability Act of 2019, która ma chronić przed deepfake’ami i innymi formami zautomatyzowanego podejmowania decyzji. Ustawa wymagałaby od firm przeprowadzania regularnych ocen swoich algorytmów w celu zapewnienia, że nie są one wykorzystywane w złych zamiarach.

Technologia deepfake jest stale ulepszana i ewoluuje, i jest wysoce prawdopodobne, że w przyszłości zobaczymy jeszcze bardziej zaawansowane deepfake’i, które będą jeszcze trudniejsze do odróżnienia ich od rzeczywistości. Technologia ta może być potencjalnie wykorzystywana do złych i dobrych celów. Od tworzenia fałszywej propagandy politycznej, oszustw w sieci, po zwykłe cele rozrywkowe. Ważne jest, aby być świadomym potencjalnych zagrożeń związanych z deepfakes i podjąć kroki w celu ochrony przed nimi. Ponadto ważne jest, aby być świadomym potencjalnych konsekwencji podrabiania cyfrowego i zwracać uwagę na konsumowane treści.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *