Jak rozpoznać deepfake po dodatkowych zabiegach maskujących?
Ostatni odcinek naszego cyklu poświęcamy zaawansowanym technikom maskowania, które w swoich produkcjach stosują twórcy deepfake'ów. Oszuści korzystają z zabiegów, które mają na celu zarówno wprowadzenie nas w błąd, jak i zmylenie algorytmów wykrywających fałszerstwa.


Techniki modyfikowania obrazu są skuteczne w przypadku oszukiwania oprogramowania do wykrywania deepfake’ów. Jednak w przypadku ludzi, paradoksalnie to właśnie one często najbardziej wyraźnie zdradzają manipulację. Aby dowiedzieć się na co zwracać uwagę, obejrzyj ostatni odcinek cyklu „Jak rozpoznać deepfake?” przygotowany przez ekspertów z NASK.
Najczęstsze metody maskowania deepfake’ów
- Poruszający się lub rozmyty obraz
Zamiast tworzyć idealnie wyraźny obraz, oszuści czasami stosują mniej lub bardziej subtelne ruchy kamery lub celowe rozmycia, aby ukryć niedoskonałości generowanego materiału. Możesz zauważyć dziwne “skoki” obrazu lub brak ostrości w kluczowych momentach. - Nienaturalne odgłosy w tle
Dziwne, niespójne dźwięki w tle, które wydają się nie pasować do kontekstu nagrania, to kolejny sygnał ostrzegawczy. Mogą to być hałasy, które wydają się sztuczne lub dziwnie “płaskie”. - Dodatkowe tekstury na obrazie
Gdy na nagraniu można zauważyć tekstury lub efekty, które wydają się być nałożone na obraz, warto zachować czujność. Takie metody są używane przez oszustów, by utrudnić detekcję deepfake’ów za pomocą sztucznej inteligencji, ale często wyglądają nienaturalnie. - Manipulacje fragmentami nagrania
Przestępcy mogą wykorzystać część prawdziwego nagrania i zmodyfikować tylko jego fragment. Na przykład początek wideo może być autentyczny, ale później pojawiają się manipulacje w obrazie lub głosie. - Nagrywanie ekranu telewizora lub monitora
Nagrywanie deepfake’a z ekranu telewizora czy monitora jest rzadką, ale stosowaną metodą. Zabieg ten ma na celu nadanie nagraniu “naturalnego” charakteru, ale może zdradzić manipulację, jeśli zwrócimy uwagę na odbicia światła lub nienaturalną jakość obrazu.
Deepfake nigdy nie był tak fake
W ramach naszego sześcioczęściowego cyklu edukacyjnego przeanalizowaliśmy kluczowe aspekty pozwalające na skuteczne identyfikowanie deepfake’ów. Dzięki znajomości przykładów i praktycznym wskazówkom od naszych ekspertów rozpoznawanie deepfake’ów będzie teraz dużo łatwiejsze.
Przypomnijmy, kluczowe elementy, na które warto zwracać uwagę, by nie zawierzać deepfake’om to: błędy w generacji obrazu, niespójności w generowanym głosie, błędy językowe i gramatyczne, brak logiki w treści i mowie ciała, stosowanie technik maskowania.
Dlaczego świadomość deepfake’ów jest ważna?
Współczesne narzędzia, które tworzą deepfake’i stają się coraz bardziej zaawansowane i dostępne, przez co ryzyko dezinformacji oraz cyfrowych oszustw rośnie. Umiejętność rozpoznawania fałszywych treści staje się kluczowym elementem cyfrowej higieny i świadomego korzystania z internetu.
Nasza seria materiałów wideo dostarczyła praktycznej wiedzy, która pomaga unikać manipulacji oraz lepiej rozumieć techniki stosowane przez twórców deepfake’ów. Jednocześnie zachęcamy do śledzenia najnowszych trendów w tej dziedzinie, bo sztuczki stosowane przez twórców deepfake’ów będą coraz bardziej zaawansowane. Bądź nieufny wobec materiałów, które wydają się zbyt szokujące lub zbyt idealne, by były prawdziwe.
Aktualne informacje na temat cyberhigieny i bezpieczeństwa w sieci znajdziesz na naszej stronie i social mediach NASK oraz CERT Polska. Subskrybuj nasz kanał na YouTube, bądź czujny i pamiętaj – świadomość i wiedza to najlepsza ochrona przed cyfrowymi oszustami!
Wyróżnione aktualności
Szeroki front małych systemów na Impact’25
Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.
NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025
Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.
PLLuM rośnie w siłę
600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).
Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw
Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.
Najnowsze aktualności
Polsko-francuska praca nad AI. Mistral AI na warsztatach w Warszawie
Wyjątkowa współpraca na osi Warszawa – Paryż. Zespół konsorcjum HIVE AI, które odpowiada za rozwój polskich dużych modeli językowych z rodziny PLLuM, spotkał się z ekspertami z francuskiego startupu Mistral AI. To burza mózgów nad sztuczną inteligencją.
Młodzi geniusze IT – stypendia NASK dla najlepszych w Polsce
Kto jest przyszłością tego kraju? Młodzi. Kto jest przyszłością cyfryzacji? Młodzi informatycy i młode informatyczki. Kto wspiera ich w sięganiu po marzenia? NASK. Instytut - już po raz piąty - funduje stypendia dla finalistów polskiej Olimpiady Informatycznej. W siedzibie Ministerstwa Cyfryzacji wręczyli je dr Krzysztof Gawkowski, wicepremier i minister cyfryzacji oraz dr inż. Radosław Nielek, dyrektor NASK.
Dzieciństwo wolne od podtekstów
„Cześć, masz ładne oczy i nie tylko…”, „Jeśli nie wyślesz swojego zdjęcia, to o wszystkim dowiedzą się twoi rodzice”. Takie wiadomości na czatach internetowych dostają nawet 11-latki. Szantaż na tle seksualnym i uwodzenie dzieci w sieci to nie są zjawiska marginalne. Ale ofiary zbyt często zostają z tym same. Jak im pomóc? Eksperci NASK odpowiedzieli na to pytanie.