NASK ostrzega: przestępcy tworzą coraz bardziej pomysłowe oszustwa deepfake. Bezprawnie wykorzystali już wizerunki 121 znanych osób

Przestępcy najczęściej manipulują wizerunkiem i głosem dziennikarzy – to aż 32 proc. wszystkich zaobserwowanych oszustw typu deepfake. Poszkodowani są też politycy, piosenkarze, aktorzy, lekarze i sportowcy, a od niedawna także duchowni. Przez ostatnie pół roku oszuści podszywali się pod 121 znanych osób – ich listę zamieszczamy na końcu materiału.

Wszyscy znamy zasadę, że nie należy wierzyć we wszystko, co możemy przeczytać w internecie, ale sztuczna inteligencja wprowadza ją na jeszcze inny poziom. Nie wierz bezkrytycznie w żaden film, który zobaczysz. Nie wierz nawet wtedy, gdy swoim własnym głosem, połączonym z właściwymi ruchami ust, wypowiada się na nim osoba publiczna, która cieszy się autorytetem – podkreśla Ewelina Bartuzi-Trokielewicz z Pionu Sztucznej Inteligencji w NASK, kierująca zespołem projektowym zajmującym się oszustwami deepfake.

Przestępcy cały czas szukają nowych twarzy – znanych osób, które mają autorytet w różnych grupach społecznych oraz filmów z ich udziałem, aby móc je zmanipulować i wykorzystać do reklamowania i zwiększenia wiarygodności kolejnych oszustw.

Kiedy w drugiej połowie czerwca zrobiliśmy zestawienie znanych postaci, których wizerunki zostały w tym roku wykorzystane w oszustwach typu deepfake, znalazły się na niej 84 nazwiska. Aktualnie jest już na tej liście ponad 120 pokrzywdzonych osób, głównie ze świata mediów, polityki, kultury i sportu – dodaje Joanna Gajewska z NASK z zespołu analizującego deepfake. – To pokazuje dynamikę działań cyberprzestępców i różnorodność oszustw, dopasowanych do innych grup odbiorców.

Prezydent, premier, prezes InPostu. Kogo najczęściej wybierają przestępcy

Jeśli do jakiejś inwestycji, „bezpiecznej” gry hazardowej lub zakupu cudownego lekarstwa przekonuje nas znana osoba, trzeba zachować czujność. To właśnie filmy dotyczące „niezwykle korzystnych” inwestycji finansowych są najczęściej spotykaną odmianą oszustw wykorzystujących manipulacje z użyciem sztucznej inteligencji. W tej kategorii pułapek zwykle wykorzystywane są postacie polityków, na czele z prezydentem Andrzejem Dudą. Filmy z jego udziałem przerabiane są najczęściej – stanowią blisko 9 proc. wszystkich deepfake’ów wykrytych w 2024 roku. Nic dziwnego – liczba oryginalnych nagrań z udziałem głowy państwa jest duża, więc przestępcy mogą korzystać z bogatego materiału źródłowego. Równocześnie Andrzej Duda zajmuje wysokie miejsca w rankingu zaufania i pełni najważniejszą funkcję publiczną w Polsce. Gdy ktoś taki na zmanipulowanym filmie „gwarantuje” zyski z reklamowanej fałszywej inwestycji, zwiększa to jej wiarygodność.

Ale do reklamowania oszustw finansowych wykorzystywane są wizerunki znanych osób z różnych grup społecznych. W lipcu przestępcy najchętniej podszywają się pod premiera Donalda Tuska, ale w czerwcu odnotowano najwięcej filmów z wizerunkiem biznesmena Rafała Brzoski, prezesa firmy InPost. Z kolei w maju dominowały przeróbki wideo z influencerem Kamilem Labuddą (Buddą), rzekomo namawiającym do mobilnych gier hazardowych.
Założyciel i prezes InPostu postrzegany jest jako przedsiębiorca, który osiągnął ogromny sukces finansowy, zaś Budda znany jest z tego, że zarabia sporo pieniędzy w mediach społecznościowych, ale też chętnie się nimi dzieli. Każdy z nich cieszy się autorytetem w pewnej grupie odbiorców – i to do nich przestępcy kierują swoje reklamy. Natomiast osobą, której wizerunek przestępcy wykorzystywali w 2024 roku niemal najczęściej (zaraz po prezydencie), również do reklamowania oszustw finansowych, był dziennikarz i podróżnik – Wojciech Cejrowski (ponad 6 proc. odnotowanych filmów).

Dla jednych biskup, dla innych znany aktor. Oszustwa szyte na miarę

Oszustwa z użyciem filmów deepfake dotyczą też cudownych lekarstw i zabiegów medycznych. Wówczas oszuści szukają innych autorytetów, np. znanych lekarzy albo trenerów sportowych. Najczęściej jednak przestępcy wykorzystują wizerunki osób dojrzałych, które cieszą się popularnością i zaufaniem w określonych grupach społecznych – piosenkarzy (np. Krzysztof Cugowski, Maryla Rodowicz), aktorów (np. Janusz Gajos, Marek Kondrat), a ostatnio również duchownych (np. Kazimierz Nycz, Stanisław Gądecki, Stanisław Dziwisz).
Kto inny uwierzy w reklamę cudownej maści, którą zachwala piosenkarz występujący na scenie od kilkudziesięciu lat, a kto inny uzna za wiarygodny komunikat (często dokładnie ten sam w warstwie tekstowej!) wypowiadany ustami arcybiskupa czy kardynała. Przestępcy chcą dotrzeć do wszystkich.

Czasami bywa wręcz tak, że wkładanie tych samych słów w usta kolejnych osób, których wizerunki kradną przestępcy, sprawia komiczny efekt. Może to być np. polska dziennikarka, która przedstawia się imieniem i nazwiskiem znanego aktora czy biskupa albo też wysoki hierarcha kościelny, który opowiada, że cudowne lekarstwo pozwoliło mu na bezbolesne spacerowanie z wnukami. Nie chodzi jednak o humor. Tak naprawdę pokazuje nam to, że tworzący te oszustwa fabrykują je taśmowo, często nie umiejąc nawet odróżnić polskich imion męskich i żeńskich albo nie wiedząc, że polskich duchownych obowiązuje celibat. To pośredni dowód na to, że wiele z tych filmów powstaje poza granicami Polski – tłumaczy Michał Ołowski z NASK, również należący do zespołu analizującego deepfake.

Kreatywność przestępców nie kończy się na fałszywych inwestycjach (adresowanych często do osób w średnim wieku), grach hazardowych (kierowanych bardziej do młodych) czy cudownych medykamentach. Pojawiają się oszustwa deepfake uwiarygadniające bardziej nietypowe narracje, np. przerobiony film z udziałem funkcjonariuszy, którzy podają się za przedstawicieli „międzynarodowej policji”, zajmującej się… ściganiem oszustw internetowych. Osoby pokrzywdzone są w nim namawiane do kontaktu, a następnie przekazania pewnej kwoty pieniędzy. W zamian oszuści obiecują odzyskanie środków finansowych, które dana osoba straciła wcześniej. W rzeczywistości przestępcy starają się okraść ją… po raz kolejny.

Dziennikarze i politycy najbardziej poszkodowani

Jak pokazują dane zebrane przez ekspertów NASK i KNF, grupą najbardziej narażoną na kradzież wizerunku i głosu, są dziennikarze – to 32 proc. poszkodowanych osób. Statystyka ta wymaga dodatkowego komentarza. Zdarzają się oszustwa, w których dziennikarka lub dziennikarz sztucznie stworzonym „swoim” głosem, wraz z dopasowanym do fałszywego komunikatu ruchem ust (technika lip-sync), namawiają do inwestycji finansowej (np. Wojciech Cejrowski, Danuta Holecka, Piotr Kraśko) czy niezwykłego lekarstwa (np. Monika Olejnik, Paulina Smaszcz). Częściej jednak towarzyszą na przerobionych przez przestępców filmach innym znanym postaciom, zwykle ze świata polityki. Wywiad z wykorzystaniem studio dużej stacji radiowej czy telewizyjnej to dodatkowy element, który wzmacnia wiarygodność przekazu oszustów. 

Oprócz przedstawicieli mediów, najwyższy odsetek poszkodowanych kradzieżą wizerunku stanowią politycy (21 proc.) i biznesmeni (11 proc.) – reklamują fałszywe inwestycje, do których oszustwa typu deepfake są najczęściej wykorzystywane. Lukratywne projekty czy platformy finansowe uwiarygadniane są również poprzez manipulacje wizerunkami influencerów (5 proc.) i sportowców (5 proc.).

Wizerunki duchownych (7 proc.) oraz lekarzy (4 proc.) służą zwykle przestępcom do preparowania oszustw „cudownych lekarstw”. Wiarygodność tej odmiany kradzieży również bywa wzmacniana wizerunkami polityków (np. Szymona Hołowni), a także piosenkarzy czy aktorów.

Jak walczyć z przestępstwami typu deepfake

Jakość filmów deepfake przygotowywanych przez przestępców wciąż się poprawia, a także używają oni coraz skuteczniejszych metod maskowania manipulacji w warstwie obrazowej czy dźwiękowej. O ile zatem warto jest umieć rozpoznawać techniczne błędy fałszerstw z użyciem sztucznej inteligencji, o tyle najważniejszą metodą zadbania o własne cyberbezpieczeństwo pozostaje zachowanie zdrowego rozsądku. Jeśli jakiś przekaz wzbudza wątpliwości, bo wydaje się aż zbyt piękny, żeby był prawdziwy – to prawdopodobnie mamy do czynienia z oszustwem. Jednorazowe, skuteczne lekarstwo na raka, cukrzycę czy nadciśnienie, gra hazardowa, w której nie można przegrać, albo krociowe zyski już po tygodniu od zainwestowania niewielkiej sumy… no nie, niestety, ale nie.

Po pierwsze zatem: edukujmy. Wiedza o rosnących możliwościach technicznych przestępców oraz stosowanych przez nich metodach jest najlepszym sposobem obrony.

Po drugie: zgłaszajmy. Każda strona z wyłudzającą dane fałszywą platformą inwestycyjną lub cudownym lekarstwem zostanie szybko zablokowana, jeśli zostanie wpisana na Listę ostrzeżeń przed niebezpiecznymi stronami, prowadzoną przez działający w NASK zespół CERT Polska. Wystarczy zgłosić taki adres poprzez stronę incydent.cert.pl.

Po trzecie, walczmy z przestępcami ich własną bronią. Dlatego oszustwa deepfake warto dodatkowo zgłaszać poprzez adres deepfake@nask.pl. Zespół ekspertów z Pionu Sztucznej Inteligencji NASK, we współpracy z CSIRT NASK, Pionem Ochrony Informacyjnej Cyberprzestrzeni w NASK oraz CSIRT KNF rejestruje oszustwa typu deepfake i opracowuje skuteczne narzędzia do ich automatycznej detekcji, również bazujące na sztucznej inteligencji.

Lista 121 osób, których wizerunek przestępcy wykorzystali w 2024 r. w oszustwach deepfake

W załączniku przedstawiamy listę znanych osób, których wizerunki zostały wykorzystane do przeróbek typu deepfake od początku 2024 roku, w oszustwach adresowanych do użytkowników polskiej przestrzeni internetowej, odnotowanych na platformach społecznościowych Facebook, TikTok, X oraz YouTube.

Przykładowe fragmenty filmów - oszustw wykorzystujących technologię deepfake