Typ_aktualnosc Aktualność
06 Marca 2025|3 min. czytania

Jak rozpoznać deepfake po dodatkowych zabiegach maskujących?

Ostatni odcinek naszego cyklu poświęcamy zaawansowanym technikom maskowania, które w swoich produkcjach stosują twórcy deepfake'ów. Oszuści korzystają z zabiegów, które mają na celu zarówno wprowadzenie nas w błąd, jak i zmylenie algorytmów wykrywających fałszerstwa.

Grafika dotycząca deepfake'ów. Na górze pięć zdjęć osób publicznych, poddanych obróbce graficznej, w niebieskim filtrze. W centrum czerwony napis 'DEEPFAKE'. Poniżej hasło w języku polskim: 'Zabieg maskujący? Zobacz, jak Cię oszukują', z wyróżnionym na niebiesko słowem 'oszukują'."
Łuna gradientu wychodząca od dołu

Techniki modyfikowania obrazu są skuteczne w przypadku oszukiwania oprogramowania do wykrywania deepfake’ów. Jednak w przypadku ludzi, paradoksalnie to właśnie one często najbardziej wyraźnie zdradzają manipulację. Aby dowiedzieć się na co zwracać uwagę, obejrzyj ostatni odcinek cyklu „Jak rozpoznać deepfake?” przygotowany przez ekspertów z NASK.

Najczęstsze metody maskowania deepfake’ów

  1. Poruszający się lub rozmyty obraz
    Zamiast tworzyć idealnie wyraźny obraz, oszuści czasami stosują mniej lub bardziej subtelne ruchy kamery lub celowe rozmycia, aby ukryć niedoskonałości generowanego materiału. Możesz zauważyć dziwne “skoki” obrazu lub brak ostrości w kluczowych momentach.
  2. Nienaturalne odgłosy w tle
    Dziwne, niespójne dźwięki w tle, które wydają się nie pasować do kontekstu nagrania, to kolejny sygnał ostrzegawczy. Mogą to być hałasy, które wydają się sztuczne lub dziwnie “płaskie”.
  3. Dodatkowe tekstury na obrazie
    Gdy na nagraniu można zauważyć tekstury lub efekty, które wydają się być nałożone na obraz, warto zachować czujność. Takie metody są używane przez oszustów, by utrudnić detekcję deepfake’ów za pomocą sztucznej inteligencji, ale często wyglądają nienaturalnie.
  4. Manipulacje fragmentami nagrania
    Przestępcy mogą wykorzystać część prawdziwego nagrania i zmodyfikować tylko jego fragment. Na przykład początek wideo może być autentyczny, ale później pojawiają się manipulacje w obrazie lub głosie.
  5. Nagrywanie ekranu telewizora lub monitora
    Nagrywanie deepfake’a z ekranu telewizora czy monitora jest rzadką, ale stosowaną metodą. Zabieg ten ma na celu nadanie nagraniu “naturalnego” charakteru, ale może zdradzić manipulację, jeśli zwrócimy uwagę na odbicia światła lub nienaturalną jakość obrazu.

Deepfake nigdy nie był tak fake

W ramach naszego sześcioczęściowego cyklu edukacyjnego przeanalizowaliśmy kluczowe aspekty pozwalające na skuteczne identyfikowanie deepfake’ów. Dzięki znajomości przykładów i praktycznym wskazówkom od naszych ekspertów rozpoznawanie deepfake’ów będzie teraz dużo łatwiejsze.

Przypomnijmy, kluczowe elementy, na które warto zwracać uwagę, by nie zawierzać deepfake’om to: błędy w generacji obrazu, niespójności w generowanym głosie, błędy językowe i gramatyczne, brak logiki w treści i mowie ciała, stosowanie technik maskowania.

Dlaczego świadomość deepfake’ów jest ważna?

Współczesne narzędzia, które tworzą deepfake’i stają się coraz bardziej zaawansowane i dostępne, przez co ryzyko dezinformacji oraz cyfrowych oszustw rośnie. Umiejętność rozpoznawania fałszywych treści staje się kluczowym elementem cyfrowej higieny i świadomego korzystania z internetu.

Nasza seria materiałów wideo dostarczyła praktycznej wiedzy, która pomaga unikać manipulacji oraz lepiej rozumieć techniki stosowane przez twórców deepfake’ów. Jednocześnie zachęcamy do śledzenia najnowszych trendów w tej dziedzinie, bo sztuczki stosowane przez twórców deepfake’ów będą coraz bardziej zaawansowane. Bądź nieufny wobec materiałów, które wydają się zbyt szokujące lub zbyt idealne, by były prawdziwe.

Aktualne informacje na temat cyberhigieny i bezpieczeństwa w sieci znajdziesz na naszej stronie i social mediach NASK oraz CERT Polska. Subskrybuj nasz kanał na YouTube, bądź czujny i pamiętaj – świadomość i wiedza to najlepsza ochrona przed cyfrowymi oszustami!

 

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

kobiety siedzą przed laptopem
Typ_aktualnosc Aktualność
20 Stycznia 2026|8 min. czytania

Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci

Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.

Prelegentka trzyma mikrofon i stoi obok ekranu z prezentacją „Modele PLLuM gotowe do publikacji”; na slajdzie widoczne są warianty modeli PLLuM i Llama-PLLuM w formie kolorowych bloków, a na pierwszym planie siedzi publiczność.
Typ_aktualnosc Aktualność
19 Stycznia 2026|8 min. czytania

Od modeli do wdrożeń – PLLuM na ścieżce realnych zastosowań

PLLuM wspiera już w codziennej pracy urzędników w Gdyni i Poznaniu, a także miliony użytkowników aplikacji mObywatel. Podczas drugiego śniadania z PLLuMem podsumowano postępy w rozwoju polskiej sztucznej inteligencji. Uczestnicy spotkania poznali rezultaty projektu HIVE AI, plany publikacji nowych modeli oraz doświadczenia z pilotażowych wdrożeń.

Napis Koryntia z planetą w tle
Typ_aktualnosc Aktualność
19 Stycznia 2026|5 min. czytania

Koryntia – gdy dezinformacja staje się bronią

Wyobraź sobie rok 2055. Świat, który znasz, właśnie się rozpada – zasoby są na wyczerpaniu, zaufanie stało się luksusem, a stabilność to wspomnienie. W tym chaosie pojawia się „Eksperyment”: selekcja, która ma wyłonić nielicznych szczęśliwców. Nagroda? Nowe życie w kolonii Koryntia.

    Jak rozpoznać deepfake po dodatkowych zabiegach maskujących?