Typ_aktualnosc Aktualność
19 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach logicznych?

W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.

Obraz przedstawia pięć osób - Emilię Wierzbicki, Donalda Tuska, Elona Muska, Anitę Werner, Ewę Drzyzgę na kadrach z nagrań wideo. Zdjęcia są przetworzone cyfrowo, nadając im niebieskawy odcień. Na środku grafiki znajduje się duży napis „DEEPFAKE” w czerwonym kolorze, a poniżej czarny tekst: „Błędy logiczne? To może być DEEPFAKE” z ostatnim słowem wyróżnionym na niebiesko. Całość sugeruje tematykę manipulacji audiowizualnej i wskazuje na możliwość fałszowania treści za pomocą technologii deepfake.
Łuna gradientu wychodząca od dołu

Przygotowaliśmy kolejne przykłady deepfake’ów, które tym razem wskazują konkretne błędy logiczne, a te mogą zdradzać twórców treści manipulacyjnych. Wszystko po to, by pokazać jak łączyć obserwacje wizualne i słuchowe z umiejętnością krytycznej analizy treści. Co ważne w wykrywaniu błędów logicznych najważniejsza jest uważność i znajomość kontekstu. 

Najczęstsze błędy logiczne w deepfake’ach 

  1. Niespójność mowy ciała z treścią
    Naturalne gesty są trudne do odtworzenia przez sztuczną inteligencję. W deepfake’ach często obserwujemy gwałtowną gestykulacje, która zupełnie nie pasuje do spokojnej, stonowanej wypowiedzi. Z drugiej strony, brak naturalnych ruchów ciała, np. minimalnego poruszania się głowy podczas mówienia, również może zdradzić manipulację.
  2. Głos niepasujący do postaci
    Jednym z najbardziej rażących błędów logicznych jest brak zgodności między wizerunkiem a głosem. Przykładem może być sytuacja, gdy widzimy znaną osobę, ale jej głos brzmi zupełnie inaczej – jakby należał do kogoś innego. Tego typu oszustwa często występują, gdy twórcy deepfake’ów idą na skróty i nie próbują nawet dopasować barwy głosu do postaci.
  3. Brak wiarygodności treści
    Deepfake może przedstawiać sytuację, która nie pasuje do rzeczywistości. Przykłady? Światowej klasy celebryta nagle mówi płynnie w języku polskim, chociaż w rzeczywistości nie zna tego języka. Inny przykład to sytuacja, w której fałszywy lektor symuluje tłumaczenie, ale treść wypowiedzi nie zgadza się z ruchem ust postaci.
  4. Treść jest niespójna i nielogiczna
    W deepfake’ach mogą pojawiać się niespójności w samej wypowiedzi, a nawet osoba, występująca w nagraniu, może przedstawiać się jako ktoś inny. 

Oglądaj kolejny odcinek i bądź o krok przed oszustami 

Nie przegap najnowszego odcinka, w którym pokażemy kolejne przykłady jak identyfikować subtelne, ale wymowne sygnały manipulacji. W następnym odcinku powiemy o technikach maskowania stosowanych w deepfake’ach, które mają na celu oszukanie narzędzi stworzonych do identyfikowania deepfake’ów.  

Bądź świadomym użytkownikiem internetu – wiedza to Twoja najlepsza obrona! 

Udostępnij ten post

Wyróżnione aktualności

Ilustracja przedstawia zdjęcie rentgenowskie ludzkiej głowy w profilu, ale zamiast mózgu znajduje się w niej spleciona chałka. Tło jest ciemnoniebieskie, co kontrastuje z jasnym pieczywem i rentgenowskimi kośćmi czaszki. Obrazek ma humorystyczny i surrealistyczny charakter.
Typ_aktualnosc Aktualność
30 Stycznia 2025|7 min. czytania

Chałkoń z farmy lajków. Humor w social mediach i jego ciemne oblicze

Internet żyje trendami, a jednym z największych w ostatnim czasie jest tzw. Chałkoń. Wygenerowany przez sztuczną inteligencję żart, wskazuje na skuteczność virali w kształtowaniu opinii publicznej i skłania do pytań o zagrożenie rozprzestrzeniania się dezinformacji.

Grafika przedstawia Igę Świątek, Andrzeja Dudę, Paulinę Hennig-Kloska w pionowych prostokątach na niebieskim tle, z centralnym napisem: 'DEEPFAKE Nie wierz, w to co słyszysz'. Napis 'DEEPFAKE' wyróżnia się kolorem czerwonym, a słowo 'słyszysz' jest podkreślone i zaznaczone na niebiesko. Obrazek wskazuje na zagrożenia związane z technologią deepfake i zwraca uwagę na ostrożność w odbiorze treści multimedialnych.
Aktualność
23 Stycznia 2025|3 min. czytania

Jak rozpoznać deepfake po błędach w głosie?

Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.

data leak
Aktualność
22 Stycznia 2025|3 min. czytania

Twoje dane osobowe wyciekły? Musisz działać szybko! Sprawdź, co robić

 Kiedy imię, nazwisko, numer PESEL czy dane logowania trafiają w niepowołane ręce, skutki mogą być dramatyczne – od kradzieży tożsamości po straty finansowe. Jak się chronić przed skutkami wycieku danych osobowych? Radzą Eksperci z CERT Polska.

Premier Wietnamu Phạm Minh Chính stoi, otoczony przez ludzi witających go w świetle aparatów fotograficznych. Po lewej stronie znajduje się Paweł Olszewski, sekretarz stanu w Ministerstwie Cyfryzacji, a obok niego dyrektor NASK Radosław Nielek. W tle widać fotografów i dziennikarzy robiących zdjęcia oraz nocną scenerię.
Aktualność
17 Stycznia 2025|4 min. czytania

Premier Wietnamu w instytucie NASK

Premier Wietnamu Pham Minh Chinh z wizytą w instytucie badawczym NASK. Delegacja odwiedziła Warszawę przy okazji 75-ej rocznicy nawiązania stosunków dyplomatycznych między Wietnamem i Polską.

Informacje

Najnowsze aktualności

Zaawansowana robotyczna ręka trzyma długopis i wypełnia dokument na biurku. W tle widać ekran komputera z wyświetlonymi danymi, co sugeruje pracę w środowisku technologicznym lub biurowym. Sceneria jest nowoczesna, z chłodnym, futurystycznym oświetleniem.
Aktualność
20 Lutego 2025|4 min. czytania

Ctrl+Alt+Praca: jaką rzeczywistość wygeneruje nam AI?

Gdyby sztuczna inteligencja była Twoim współpracownikiem, to razem pilibyście kawę czy mijalibyście się na korytarzu bez słowa? Jak AI zmieni polski rynek pracy — mówi ekspert z NASK na prestiżowej konferencji unijnych ministrów organizowanej w ramach polskiej prezydencji w UE.

Na pierwszym planie widać uśmiechniętą kobietę w czarnym stroju, trzymającą otwartą teczkę z podpisaną umową. Obok niej siedzi mężczyzna w garniturze, spoglądający w stronę dokumentu. W tle widoczne są flagi Polski i Unii Europejskiej.
Typ_aktualnosc Aktualność
20 Lutego 2025|3 min. czytania

„Klub Cyfrowych Możliwości” - 25 milionów złotych na innowacje w polskich szkołach

W świecie, w którym kompetencje cyfrowe stają się jednym z kluczowych czynników rozwoju, ważne jest, by każdy – niezależnie od miejsca zamieszkania czy płci – miał szansę odkrywać i kształtować swoje zainteresowania w obszarze nowych technologii.

Grafika przedstawia futurystyczną, humanoidalną postać z przezroczystym, świetlistym ciałem, wypełnionym siecią energetycznych połączeń, przypominających obwody elektroniczne lub system nerwowy. Postać ma błyszczącą, niemal eteryczną głowę z pulsującym światłem na czole, symbolizującym sztuczną inteligencję. Jej dłonie rozłożone są nad Ziemią, która widziana jest z kosmosu i oświetlona światłami miast. W tle widać cyfrowe elementy, takie jak linie łączące punkty, geometryczne kształty oraz napisy "AI", sugerujące zaawansowaną technologię i sztuczną inteligencję na poziomie AGI (Artificial General Intelligence). Obraz emanuje mistyczną i futurystyczną aurą, symbolizującą potęgę i rozwój AI.
Typ_aktualnosc Aktualność
19 Lutego 2025|7 min. czytania

AGI – szansa czy game over dla ludzkości?

Maszyny mogą próbować wygrać z nami za wszelką cenę. Sztuczna inteligencja ma wspierać, a nie zastąpić człowieka. To głos ekspertów i autorytetów, który wybrzmiał podczas paryskiej konferencji na temat sztucznej inteligencji (AI). Znawcy tematu nie mają wątpliwości, że prace nad jej rozwojem muszą być kontrolowane, przemyślane i prowadzić do rozwoju, a nie upadku ludzkości.