Jak rozpoznać deepfake po błędach językowych?
No wiesz, w świecie deepfake’ów nie tylko obraz i głos mogą zdradzić manipulację, ale także po prostu używane w nagraniach słowa. Kolejny odcinek naszego cyklu wideo po prostu skupia się na błędach językowych, wiesz które często pojawiają się w zmanipulowanych treściach.

Wstęp wydał Ci się dziwny? W deepfake’ach często występują powtórzenia słów, które mają na celu ukrycie błędów w generacji wypowiedzi. Mogą to być właśnie zwroty „no wiesz”, „po prostu” wplecione nienaturalnie w nagranie. Nawet najbardziej zaawansowane technologie mają trudności z poprawnym odwzorowaniem języka. To daje nam możliwość zauważenia, że to co oglądamy, może nie być prawdziwym nagraniem, a wygenerowaną przez Sztuczną Inteligencję treścią.
W najnowszym odcinku cyklu „Jak rozpoznać deepfake?” Michał Ołowski, ekspert od treści generatywnych wskazuje na co zwracać uwagę, kiedy poprawność językowa nie jest najmocniejszą stroną bohatera nagrania.
Na tropie błędów językowych
Na podstawie fałszywych nagrań, które przeanalizowali specjaliści z NASK, można wskazać najczęstsze pułapki językowe, w które wpada sztuczna inteligencja. Zwracając uwagę na te szczegóły, łatwo podważyć wiarygodność wielu materiałów wideo i audio, które krążą w sieci.
- Odmiana liczebników
Deepfaki często mają problem z prawidłową odmianą liczebników, szczególnie w przypadku godzin, dat czy liczb. Mogą to być np. „trzy godziny” zamiast „trzecią godzinę” lub „piętnaście minut” zamiast „piętnastu minut”. Takie błędy są sygnałem, że nagranie mogło zostać wygenerowane. - Błędne lub nienaturalne akcentowanie wyrazów
Deepfaki często nie odwzorowują subtelnych cech akcentowania, co sprawia, że niektóre słowa brzmią nienaturalnie lub niezgodnie z kontekstem. - Niewłaściwa odmiana rzeczowników
Generowane treści mogą niepoprawnie odmieniać rzeczowniki. Zwróć uwagę, gdy osoba publiczna znana z jasnej i płynnej mowy wypowiada zdania chaotyczne lub niepoprawne gramatycznie. To może być deepfake.
Choć modele generatywne stają się coraz bardziej zaawansowane, ich ograniczenia wynikają z analizy języka na poziomie danych. Algorytmy nie zawsze rozumieją kontekst, a brak naturalnego wyczucia języka sprawia, że takie błędy są łatwe do zauważenia dla wprawnego słuchacza.
Kolejna porcja wiedzy o deepfake’ach za dwa tygodnie
Jeśli chcesz nauczyć się skutecznie rozpoznawać deepfaki, koniecznie oglądaj nasz cykl wideo. Z kolejnego odcinka dowiesz się, jak zauważać błędy logiczne, które zdradzają manipulację treściami.
Subskrybuj nasz kanał, bądź czujny i pamiętaj – świadomość to najlepsza ochrona przed cyfrowymi oszustwami!
Wyróżnione aktualności
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Innowacja w polskiej nauce. Współpraca NASK i NAWA
Bezpieczeństwo, rozwój i nowe możliwości dla polskiej nauki. List intencyjny podpisany przez NASK z Narodową Agencją Wymiany Akademickiej NAWA to kolejny krok w stronę tworzenia i udoskonalania polskiej sztucznej inteligencji, która staje się niezbędnym narzędziem w pracy naukowców.
Oświadczenie NASK
W związku z informacjami dotyczącymi NASK publikowanymi w przestrzeni publicznej, informujemy.
Polsko-koreańska współpraca nad bezpieczeństwem AI
NASK zyskuje prestiżowego partnera w pracach nad bezpieczną sztuczną inteligencją. Współpraca z Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji (AISI Korea AI Safety Institute) działającym w strukturach Instytutu Badawczego Elektroniki i Telekomunikacji (ETRI) obejmie realizację wspólnych badań, seminariów, programów szkoleniowych dla inżynierów oraz transfer technologii.






