Typ_aktualnosc Aktualność
06 Marca 2025|3 min. czytania

Jak rozpoznać deepfake po dodatkowych zabiegach maskujących?

Ostatni odcinek naszego cyklu poświęcamy zaawansowanym technikom maskowania, które w swoich produkcjach stosują twórcy deepfake'ów. Oszuści korzystają z zabiegów, które mają na celu zarówno wprowadzenie nas w błąd, jak i zmylenie algorytmów wykrywających fałszerstwa.

Grafika dotycząca deepfake'ów. Na górze pięć zdjęć osób publicznych, poddanych obróbce graficznej, w niebieskim filtrze. W centrum czerwony napis 'DEEPFAKE'. Poniżej hasło w języku polskim: 'Zabieg maskujący? Zobacz, jak Cię oszukują', z wyróżnionym na niebiesko słowem 'oszukują'."
Łuna gradientu wychodząca od dołu

Techniki modyfikowania obrazu są skuteczne w przypadku oszukiwania oprogramowania do wykrywania deepfake’ów. Jednak w przypadku ludzi, paradoksalnie to właśnie one często najbardziej wyraźnie zdradzają manipulację. Aby dowiedzieć się na co zwracać uwagę, obejrzyj ostatni odcinek cyklu „Jak rozpoznać deepfake?” przygotowany przez ekspertów z NASK.

Najczęstsze metody maskowania deepfake’ów

  1. Poruszający się lub rozmyty obraz
    Zamiast tworzyć idealnie wyraźny obraz, oszuści czasami stosują mniej lub bardziej subtelne ruchy kamery lub celowe rozmycia, aby ukryć niedoskonałości generowanego materiału. Możesz zauważyć dziwne “skoki” obrazu lub brak ostrości w kluczowych momentach.
  2. Nienaturalne odgłosy w tle
    Dziwne, niespójne dźwięki w tle, które wydają się nie pasować do kontekstu nagrania, to kolejny sygnał ostrzegawczy. Mogą to być hałasy, które wydają się sztuczne lub dziwnie “płaskie”.
  3. Dodatkowe tekstury na obrazie
    Gdy na nagraniu można zauważyć tekstury lub efekty, które wydają się być nałożone na obraz, warto zachować czujność. Takie metody są używane przez oszustów, by utrudnić detekcję deepfake’ów za pomocą sztucznej inteligencji, ale często wyglądają nienaturalnie.
  4. Manipulacje fragmentami nagrania
    Przestępcy mogą wykorzystać część prawdziwego nagrania i zmodyfikować tylko jego fragment. Na przykład początek wideo może być autentyczny, ale później pojawiają się manipulacje w obrazie lub głosie.
  5. Nagrywanie ekranu telewizora lub monitora
    Nagrywanie deepfake’a z ekranu telewizora czy monitora jest rzadką, ale stosowaną metodą. Zabieg ten ma na celu nadanie nagraniu “naturalnego” charakteru, ale może zdradzić manipulację, jeśli zwrócimy uwagę na odbicia światła lub nienaturalną jakość obrazu.

Deepfake nigdy nie był tak fake

W ramach naszego sześcioczęściowego cyklu edukacyjnego przeanalizowaliśmy kluczowe aspekty pozwalające na skuteczne identyfikowanie deepfake’ów. Dzięki znajomości przykładów i praktycznym wskazówkom od naszych ekspertów rozpoznawanie deepfake’ów będzie teraz dużo łatwiejsze.

Przypomnijmy, kluczowe elementy, na które warto zwracać uwagę, by nie zawierzać deepfake’om to: błędy w generacji obrazu, niespójności w generowanym głosie, błędy językowe i gramatyczne, brak logiki w treści i mowie ciała, stosowanie technik maskowania.

Dlaczego świadomość deepfake’ów jest ważna?

Współczesne narzędzia, które tworzą deepfake’i stają się coraz bardziej zaawansowane i dostępne, przez co ryzyko dezinformacji oraz cyfrowych oszustw rośnie. Umiejętność rozpoznawania fałszywych treści staje się kluczowym elementem cyfrowej higieny i świadomego korzystania z internetu.

Nasza seria materiałów wideo dostarczyła praktycznej wiedzy, która pomaga unikać manipulacji oraz lepiej rozumieć techniki stosowane przez twórców deepfake’ów. Jednocześnie zachęcamy do śledzenia najnowszych trendów w tej dziedzinie, bo sztuczki stosowane przez twórców deepfake’ów będą coraz bardziej zaawansowane. Bądź nieufny wobec materiałów, które wydają się zbyt szokujące lub zbyt idealne, by były prawdziwe.

Aktualne informacje na temat cyberhigieny i bezpieczeństwa w sieci znajdziesz na naszej stronie i social mediach NASK oraz CERT Polska. Subskrybuj nasz kanał na YouTube, bądź czujny i pamiętaj – świadomość i wiedza to najlepsza ochrona przed cyfrowymi oszustami!

 

Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Zdjęcie przedstawia grupę uczestników warsztatu siedzących przy dużym stole konferencyjnym. Na ekranie projektora widoczna jest agenda spotkania zatytułowanego „Workshop Agenda”. Uczestnicy są skupieni na dyskusji, niektórzy korzystają z laptopów.
Typ_aktualnosc Aktualność
29 Sierpnia 2025|4 min. czytania

Polsko-francuska praca nad AI. Mistral AI na warsztatach w Warszawie

Wyjątkowa współpraca na osi Warszawa – Paryż. Zespół konsorcjum HIVE AI, które odpowiada za rozwój polskich dużych modeli językowych z rodziny PLLuM, spotkał się z ekspertami z francuskiego startupu Mistral AI. To burza mózgów nad sztuczną inteligencją.

Wręczenie stypendiów dla laureatów Olimpiady Informatycznej.
Typ_aktualnosc Aktualność
28 Sierpnia 2025|7 min. czytania

Młodzi geniusze IT – stypendia NASK dla najlepszych w Polsce

Kto jest przyszłością tego kraju? Młodzi. Kto jest przyszłością cyfryzacji? Młodzi informatycy i młode informatyczki. Kto wspiera ich w sięganiu po marzenia? NASK. Instytut - już po raz piąty - funduje stypendia dla finalistów polskiej Olimpiady Informatycznej. W siedzibie Ministerstwa Cyfryzacji wręczyli je dr Krzysztof Gawkowski, wicepremier i minister cyfryzacji oraz dr inż. Radosław Nielek, dyrektor NASK.

Konferencja prasowa w PAP. Dzieciństwo bez podtekstów.
Typ_aktualnosc Aktualność
21 Sierpnia 2025|7 min. czytania

Dzieciństwo wolne od podtekstów

„Cześć, masz ładne oczy i nie tylko…”, „Jeśli nie wyślesz swojego zdjęcia, to o wszystkim dowiedzą się twoi rodzice”. Takie wiadomości na czatach internetowych dostają nawet 11-latki. Szantaż na tle seksualnym i uwodzenie dzieci w sieci to nie są zjawiska marginalne. Ale ofiary zbyt często zostają z tym same. Jak im pomóc? Eksperci NASK odpowiedzieli na to pytanie.