Aktualność
06 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach językowych?

No wiesz, w świecie deepfake’ów nie tylko obraz i głos mogą zdradzić manipulację, ale także po prostu używane w nagraniach słowa. Kolejny odcinek naszego cyklu wideo po prostu skupia się na błędach językowych, wiesz które często pojawiają się w zmanipulowanych treściach.

W górnej części znajduje się kolaż pięciu zdjęć Pauliny Henning-Kloski, Andrzeja Dudy, Ewy Drzyzgi, Małgorzaty Rozenek i Igi Świątek, przedstawionych w niebieskim tonie. W centralnej części widnieje wyróżniony na czerwono napis „DEEPFAKE”. Poniżej, w czarnym i niebieskim tekście, znajduje się hasło: „To zdradza cyberoszustów”.
Łuna gradientu wychodząca od dołu

Wstęp wydał Ci się dziwny? W deepfake’ach często występują powtórzenia słów, które mają na celu ukrycie błędów w generacji wypowiedzi. Mogą to być właśnie zwroty „no wiesz”, „po prostu” wplecione nienaturalnie w nagranie. Nawet najbardziej zaawansowane technologie mają trudności z poprawnym odwzorowaniem języka. To daje nam możliwość zauważenia, że to co oglądamy, może nie być prawdziwym nagraniem, a wygenerowaną przez Sztuczną Inteligencję treścią. 

W najnowszym odcinku cyklu „Jak rozpoznać deepfake?” Michał Ołowski, ekspert od treści generatywnych wskazuje na co zwracać uwagę, kiedy poprawność językowa nie jest najmocniejszą stroną bohatera nagrania.  

Na tropie błędów językowych 

Na podstawie fałszywych nagrań, które przeanalizowali specjaliści z NASK, można wskazać najczęstsze pułapki językowe, w które wpada sztuczna inteligencja. Zwracając uwagę na te szczegóły, łatwo podważyć wiarygodność wielu materiałów wideo i audio, które krążą w sieci. 

  1. Odmiana liczebników
    Deepfaki często mają problem z prawidłową odmianą liczebników, szczególnie w przypadku godzin, dat czy liczb. Mogą to być np. „trzy godziny” zamiast „trzecią godzinę” lub „piętnaście minut” zamiast „piętnastu minut”. Takie błędy są sygnałem, że nagranie mogło zostać wygenerowane.
  2. Błędne lub nienaturalne akcentowanie wyrazów
    Deepfaki często nie odwzorowują subtelnych cech akcentowania, co sprawia, że niektóre słowa brzmią nienaturalnie lub niezgodnie z kontekstem. 
  3. Niewłaściwa odmiana rzeczowników
    Generowane treści mogą niepoprawnie odmieniać rzeczowniki. Zwróć uwagę, gdy osoba publiczna znana z jasnej i płynnej mowy wypowiada zdania chaotyczne lub niepoprawne gramatycznie. To może być deepfake. 

Choć modele generatywne stają się coraz bardziej zaawansowane, ich ograniczenia wynikają z analizy języka na poziomie danych. Algorytmy nie zawsze rozumieją kontekst, a brak naturalnego wyczucia języka sprawia, że takie błędy są łatwe do zauważenia dla wprawnego słuchacza. 

Kolejna porcja wiedzy o deepfake’ach za dwa tygodnie 

Jeśli chcesz nauczyć się skutecznie rozpoznawać deepfaki, koniecznie oglądaj nasz cykl wideo. Z kolejnego odcinka dowiesz się, jak zauważać błędy logiczne, które zdradzają manipulację treściami.  

Subskrybuj nasz kanał, bądź czujny i pamiętaj – świadomość to najlepsza ochrona przed cyfrowymi oszustwami! 

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

Dwóch mężczyzn ściskających sobie dłonie na tle napisu NASK
Typ_aktualnosc Aktualność
09 Stycznia 2026|3 min. czytania

Innowacja w polskiej nauce. Współpraca NASK i NAWA

Bezpieczeństwo, rozwój i nowe możliwości dla polskiej nauki. List intencyjny podpisany przez NASK z Narodową Agencją Wymiany Akademickiej NAWA to kolejny krok w stronę tworzenia i udoskonalania polskiej sztucznej inteligencji, która staje się niezbędnym narzędziem w pracy naukowców.

Logotyp NASK
Typ_aktualnosc Aktualność
08 Stycznia 2026|1 min. czytania

Oświadczenie NASK

W związku z informacjami dotyczącymi NASK publikowanymi w przestrzeni publicznej, informujemy.

Panorama Seulu o zmierzchu z rzeką Han i wieżą Lotte World Tower; u góry widoczne logotypy NASK oraz Korea AI Safety Institute (AISI).
Typ_aktualnosc Aktualność
07 Stycznia 2026|9 min. czytania

Polsko-koreańska współpraca nad bezpieczeństwem AI

NASK zyskuje prestiżowego partnera w pracach nad bezpieczną sztuczną inteligencją. Współpraca z Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji (AISI Korea AI Safety Institute) działającym w strukturach Instytutu Badawczego Elektroniki i Telekomunikacji (ETRI) obejmie realizację wspólnych badań, seminariów, programów szkoleniowych dla inżynierów oraz transfer technologii.