Jak rozpoznać deepfake po błędach językowych?
No wiesz, w świecie deepfake’ów nie tylko obraz i głos mogą zdradzić manipulację, ale także po prostu używane w nagraniach słowa. Kolejny odcinek naszego cyklu wideo po prostu skupia się na błędach językowych, wiesz które często pojawiają się w zmanipulowanych treściach.


Wstęp wydał Ci się dziwny? W deepfake’ach często występują powtórzenia słów, które mają na celu ukrycie błędów w generacji wypowiedzi. Mogą to być właśnie zwroty „no wiesz”, „po prostu” wplecione nienaturalnie w nagranie. Nawet najbardziej zaawansowane technologie mają trudności z poprawnym odwzorowaniem języka. To daje nam możliwość zauważenia, że to co oglądamy, może nie być prawdziwym nagraniem, a wygenerowaną przez Sztuczną Inteligencję treścią.
W najnowszym odcinku cyklu „Jak rozpoznać deepfake?” Michał Ołowski, ekspert od treści generatywnych wskazuje na co zwracać uwagę, kiedy poprawność językowa nie jest najmocniejszą stroną bohatera nagrania.
Na tropie błędów językowych
Na podstawie fałszywych nagrań, które przeanalizowali specjaliści z NASK, można wskazać najczęstsze pułapki językowe, w które wpada sztuczna inteligencja. Zwracając uwagę na te szczegóły, łatwo podważyć wiarygodność wielu materiałów wideo i audio, które krążą w sieci.
- Odmiana liczebników
Deepfaki często mają problem z prawidłową odmianą liczebników, szczególnie w przypadku godzin, dat czy liczb. Mogą to być np. „trzy godziny” zamiast „trzecią godzinę” lub „piętnaście minut” zamiast „piętnastu minut”. Takie błędy są sygnałem, że nagranie mogło zostać wygenerowane. - Błędne lub nienaturalne akcentowanie wyrazów
Deepfaki często nie odwzorowują subtelnych cech akcentowania, co sprawia, że niektóre słowa brzmią nienaturalnie lub niezgodnie z kontekstem. - Niewłaściwa odmiana rzeczowników
Generowane treści mogą niepoprawnie odmieniać rzeczowniki. Zwróć uwagę, gdy osoba publiczna znana z jasnej i płynnej mowy wypowiada zdania chaotyczne lub niepoprawne gramatycznie. To może być deepfake.
Choć modele generatywne stają się coraz bardziej zaawansowane, ich ograniczenia wynikają z analizy języka na poziomie danych. Algorytmy nie zawsze rozumieją kontekst, a brak naturalnego wyczucia języka sprawia, że takie błędy są łatwe do zauważenia dla wprawnego słuchacza.
Kolejna porcja wiedzy o deepfake’ach za dwa tygodnie
Jeśli chcesz nauczyć się skutecznie rozpoznawać deepfaki, koniecznie oglądaj nasz cykl wideo. Z kolejnego odcinka dowiesz się, jak zauważać błędy logiczne, które zdradzają manipulację treściami.
Subskrybuj nasz kanał, bądź czujny i pamiętaj – świadomość to najlepsza ochrona przed cyfrowymi oszustwami!
Wyróżnione aktualności
Szeroki front małych systemów na Impact’25
Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.
NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025
Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.
PLLuM rośnie w siłę
600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).
Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw
Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.
Najnowsze aktualności
PLLuM w nowej odsłonie. Rodzina polskojęzycznych modeli językowych się powiększa
Polska sztuczna inteligencja przyspiesza. Model PLLuM został zaktualizowany i zoptymalizowany. Teraz potrafi m.in. tworzyć oficjalne e-maile czy wnioski i lepiej formatuje odpowiedzi. To pierwsza aktualizacja wydana pod marką HIVE AI i wyraźny sygnał, że projekt nie zwalnia tempa.
EZD RP. Fundament cyfrowej administracji w Polsce
W Polsce trwa cyfrowa rewolucja. Do 2028 roku z urzędów znikną papiery, drukarki, ksera i archiwa na tomy akt. Zamiast tego będzie cyfrowa administracja. Polskie samorządy otrzymają ją bezpłatnie dzięki systemowi EZD RP. Opracowany przez NASK i wdrażany przez Instytut we współpracy z Ministerstwem Cyfryzacji system EZD RP jest fundamentem, na którym budowana jest trwała, strategiczna zmiana – dokumentacja w chmurze.
Czy ktoś cię obserwuje? O cyberbezpieczeństwie kamer
Kamery są naszymi cyfrowymi strażnikami. Chronią, zapewniają spokój ducha, czuwają, kiedy śpimy albo wyjeżdżamy na weekend. Ale co stanie się, gdy pewnego dnia to nie ty spojrzysz - tylko ktoś spojrzy za ciebie?