Aktualność
06 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach językowych?

No wiesz, w świecie deepfake’ów nie tylko obraz i głos mogą zdradzić manipulację, ale także po prostu używane w nagraniach słowa. Kolejny odcinek naszego cyklu wideo po prostu skupia się na błędach językowych, wiesz które często pojawiają się w zmanipulowanych treściach.

W górnej części znajduje się kolaż pięciu zdjęć Pauliny Henning-Kloski, Andrzeja Dudy, Ewy Drzyzgi, Małgorzaty Rozenek i Igi Świątek, przedstawionych w niebieskim tonie. W centralnej części widnieje wyróżniony na czerwono napis „DEEPFAKE”. Poniżej, w czarnym i niebieskim tekście, znajduje się hasło: „To zdradza cyberoszustów”.
Łuna gradientu wychodząca od dołu

Wstęp wydał Ci się dziwny? W deepfake’ach często występują powtórzenia słów, które mają na celu ukrycie błędów w generacji wypowiedzi. Mogą to być właśnie zwroty „no wiesz”, „po prostu” wplecione nienaturalnie w nagranie. Nawet najbardziej zaawansowane technologie mają trudności z poprawnym odwzorowaniem języka. To daje nam możliwość zauważenia, że to co oglądamy, może nie być prawdziwym nagraniem, a wygenerowaną przez Sztuczną Inteligencję treścią. 

W najnowszym odcinku cyklu „Jak rozpoznać deepfake?” Michał Ołowski, ekspert od treści generatywnych wskazuje na co zwracać uwagę, kiedy poprawność językowa nie jest najmocniejszą stroną bohatera nagrania.  

Na tropie błędów językowych 

Na podstawie fałszywych nagrań, które przeanalizowali specjaliści z NASK, można wskazać najczęstsze pułapki językowe, w które wpada sztuczna inteligencja. Zwracając uwagę na te szczegóły, łatwo podważyć wiarygodność wielu materiałów wideo i audio, które krążą w sieci. 

  1. Odmiana liczebników
    Deepfaki często mają problem z prawidłową odmianą liczebników, szczególnie w przypadku godzin, dat czy liczb. Mogą to być np. „trzy godziny” zamiast „trzecią godzinę” lub „piętnaście minut” zamiast „piętnastu minut”. Takie błędy są sygnałem, że nagranie mogło zostać wygenerowane.
  2. Błędne lub nienaturalne akcentowanie wyrazów
    Deepfaki często nie odwzorowują subtelnych cech akcentowania, co sprawia, że niektóre słowa brzmią nienaturalnie lub niezgodnie z kontekstem. 
  3. Niewłaściwa odmiana rzeczowników
    Generowane treści mogą niepoprawnie odmieniać rzeczowniki. Zwróć uwagę, gdy osoba publiczna znana z jasnej i płynnej mowy wypowiada zdania chaotyczne lub niepoprawne gramatycznie. To może być deepfake. 

Choć modele generatywne stają się coraz bardziej zaawansowane, ich ograniczenia wynikają z analizy języka na poziomie danych. Algorytmy nie zawsze rozumieją kontekst, a brak naturalnego wyczucia języka sprawia, że takie błędy są łatwe do zauważenia dla wprawnego słuchacza. 

Kolejna porcja wiedzy o deepfake’ach za dwa tygodnie 

Jeśli chcesz nauczyć się skutecznie rozpoznawać deepfaki, koniecznie oglądaj nasz cykl wideo. Z kolejnego odcinka dowiesz się, jak zauważać błędy logiczne, które zdradzają manipulację treściami.  

Subskrybuj nasz kanał, bądź czujny i pamiętaj – świadomość to najlepsza ochrona przed cyfrowymi oszustwami! 

Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Na zdjęciu dziecko używa długopisu 3D.
Typ_aktualnosc Aktualność
16 Października 2025|5 min. czytania

"Dziewczyno, Ty też możesz". Świat IT nie ma płci

W świecie, w którym technologie kształtują codzienność, kobiety wciąż są w mniejszości. Z badań NASK wynika, że tylko 3,7 procent dziewcząt planuje studia informatyczne – w przypadku chłopców to 26 procent. Dlatego powstał Klub Cyfrowych Możliwości – projekt realizowany przez Państwowy Instytut Badawczy NASK w partnerstwie ze Stowarzyszeniem Cyfrowy Dialog, który pomaga to zmienić. 

Grafika przedstawiająca okładkę poradnika - dziewczynka z rozpuszczonymi włosami z telefonem w ręku.
Typ_aktualnosc Aktualność
13 Października 2025|3 min. czytania

Król cyfrowy czy pionek w grze? Premiera publikacji OSE

Kuszą przygodą, nęcą rywalizacją, nagradzają kolejnymi zdobytymi levelami. I uzależniają. Gry projektowane są tak, żeby zatrzymać użytkownika jak najdłużej. Niewinna zabawa może otwierać pole do ryzykownych zachowań, takich jak hazard czy agresja w sieci. W najnowszej publikacji NASK “O grach cyfrowych” można dowiedzieć się, co zrobić, żeby wirtualna rozrywka była bezpieczna.

Prezentacja GAI
Typ_aktualnosc Aktualność
10 Października 2025|6 min. czytania

NASK partnerem prestiżowego projektu Gaia AI Factory

Nowy rozdział rozwoju zaufanej sztucznej inteligencji w Polsce. Europejskie Wspólne Przedsięwzięcie w zakresie Obliczeń Wielkiej Skali (EuroHPC JU) wybrało konsorcjum kierowane przez Akademickie Centrum Komputerowe Cyfronet AGH w Krakowie, którego częścią jest NASK, do utworzenia Gaia AI Factory – nowoczesnej fabryki sztucznej inteligencji w Polsce.