Typ_aktualnosc Aktualność
16 Stycznia 2025|3 min. czytania

Jak rozpoznać deepfake po błędach w obrazie?

Rozpoznanie deepfake’ów wymaga uwagi i znajomości sygnałów, które zdradzają manipulację. W kolejnym odcinku cyklu wideo „Jak rozpoznać deepfake?” przedstawiamy najczęstsze błędy generacyjne w obrazie, które mogą pomóc zidentyfikować fałszywy materiał.

Kolaż przedstawiający twarze różnych osób m. in. Danuty Holeckiej i Elona Musku w tonacji niebieskiej, z centralnym napisem 'DEEPFAKE' w czerwonym kolorze oraz hasłem 'Nie wierz, w to co widzisz' w kolorze czarnym i niebieskim. Grafika odnosi się do problematyki deepfake'ów, czyli technologii fałszowania obrazu i wideo."
Łuna gradientu wychodząca od dołu

Deepfaki koncentrują się głównie na twarzach, ponieważ to one najczęściej przyciągają uwagę widza. Jednak nawet najbardziej zaawansowane algorytmy mają trudności z generowaniem naturalnych detali.  

Rozpoznaj deepfake po błędach w obrazie 

  1. Brak spójności w ruchu ust
    Manipulacje związane z ruchem ust, czyli tzw. lipsync, często ujawniają błędy. Możesz zauważyć momenty, w których usta nie poruszają się zgodnie z wypowiadanymi słowami lub wydają się być “opóźnione”.
  2. Rozmycie w okolicach ust i zębów
    Narzędzia generujące obraz często mają trudności z dokładnym odwzorowaniem szczegółów wewnątrz jamy ustnej, takich jak zęby. W efekcie mogą pojawić się rozmazane obszary lub nienaturalnie wyglądające zęby.
  3. Artefakty na granicach obrazu
    Wokół twarzy, szczególnie w miejscach, gdzie tło łączy się z krawędzią sylwetki, mogą pojawiać się dziwne plamy, zniekształcenia lub błędy, które zdradzają użycie technologii deepfake.
  4. Zmiany w geometrii twarzy
    Przy uważnym oglądaniu możesz zauważyć subtelne deformacje, takie jak niesymetryczne rysy twarzy, zmieniający się kształt nosa, oczu czy całej czaszki podczas ruchu.
  5. Znikające elementy twarzy
    Narzędzia deepfake’owe potrzebują pełnych danych o twarzy, aby poprawnie działać. Jeśli część twarzy zostanie przesłonięta przez rękę, włosy lub inne obiekty, mogą pojawić się błędy, takie jak zniknięcie lub przemieszczenie oczu czy nosa. 

Inne sygnały, które warto znać 

  • Niepasujące oświetlenie: Często deepfaki mają trudności z równomiernym odwzorowaniem światła i cienia na twarzy. 
  • Nienaturalne mruganie oczu: Wiele starszych generacji deepfake’ów generowało obrazy, w których oczy postaci w ogóle nie mrugały lub mruganie było nienaturalne. 
  • Ruchy głowy i szyi: Nienaturalne, “szarpane” ruchy głowy w stosunku do reszty ciała mogą również wskazywać na manipulację. 

Dlaczego warto nauczyć się rozpoznawać deepfaki? 

Zrozumienie i identyfikowanie deepfake’ów to ważna dziś umiejętność, która chroni nas przed oszustwami, manipulacją w mediach społecznościowych i dezinformacją.
W naszym cyklu wideo znajdziesz konkretne przykłady i porady, które sprawią, że będziesz bardziej świadomie używać internetu. 

Nie pomiń najnowszego odcinka cyklu. Premiera kolejnej części – poświęconej rozpoznawaniu deepfake’ów w błędach w dźwięku – już za tydzień. Nie przegap! 

Bądź krok przed oszustami – naucz się identyfikować deepfaki! 

Udostępnij ten post

Wyróżnione aktualności

Zaawansowana robotyczna ręka trzyma długopis i wypełnia dokument na biurku. W tle widać ekran komputera z wyświetlonymi danymi, co sugeruje pracę w środowisku technologicznym lub biurowym. Sceneria jest nowoczesna, z chłodnym, futurystycznym oświetleniem.
Aktualność
20 Lutego 2025|4 min. czytania

Ctrl+Alt+Praca: jaką rzeczywistość wygeneruje nam AI?

Gdyby sztuczna inteligencja była Twoim współpracownikiem, to razem pilibyście kawę czy mijalibyście się na korytarzu bez słowa? Jak AI zmieni polski rynek pracy - mówił ekspert z NASK na prestiżowej konferencji unijnych ministrów organizowanej w ramach polskiej prezydencji w UE.

Na pierwszym planie widać uśmiechniętą kobietę w czarnym stroju, trzymającą otwartą teczkę z podpisaną umową. Obok niej siedzi mężczyzna w garniturze, spoglądający w stronę dokumentu. W tle widoczne są flagi Polski i Unii Europejskiej.
Typ_aktualnosc Aktualność
20 Lutego 2025|3 min. czytania

„Klub Cyfrowych Możliwości” - 25 milionów złotych na innowacje w polskich szkołach

W świecie, w którym kompetencje cyfrowe stają się jednym z kluczowych czynników rozwoju, ważne jest, by każdy – niezależnie od miejsca zamieszkania czy płci – miał szansę odkrywać i kształtować swoje zainteresowania w obszarze nowych technologii.

Obraz przedstawia pięć osób - Emilię Wierzbicki, Donalda Tuska, Elona Muska, Anitę Werner, Ewę Drzyzgę na kadrach z nagrań wideo. Zdjęcia są przetworzone cyfrowo, nadając im niebieskawy odcień. Na środku grafiki znajduje się duży napis „DEEPFAKE” w czerwonym kolorze, a poniżej czarny tekst: „Błędy logiczne? To może być DEEPFAKE” z ostatnim słowem wyróżnionym na niebiesko. Całość sugeruje tematykę manipulacji audiowizualnej i wskazuje na możliwość fałszowania treści za pomocą technologii deepfake.
Typ_aktualnosc Aktualność
19 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach logicznych?

W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.

Ciemne ujęcie dłoni piszących na klawiaturze laptopa, symbolizujące cyberbezpieczeństwo i ochronę danych. Nałożona grafika przedstawia cyfrowe elementy interfejsu, w tym świecący zamek i futurystyczne okręgi, sugerujące zabezpieczenia i ochronę prywatności w sieci.
Typ_aktualnosc Aktualność
19 Lutego 2025|2 min. czytania

Cyberoodporny samorząd – jak bronić się przed manipulacją?

Solidna porcja cennych informacji i wskazówek na temat dezinformacji oraz cyberhigieny. Tak w skrócie można określić bezpłatne szkolenia w formie webinarów przeprowadzane przez specjalistów z Instytutu NASK dla samorządów.

Informacje

Najnowsze aktualności

ESA - nowy termin olimpiady
Typ_aktualnosc-komunikat Komunikat
13 Marca 2025|3 min. czytania

Stanowisko w sprawie problemów technicznych przy organizacji pierwszego etapu IV Olimpiady Antysmogowej

Stanowisko w sprawie problemów technicznych przy organizacji pierwszego etapu IV Olimpiady Antysmogowej.

Obrazek przedstawia dwoje dzieci – dziewczynkę i chłopca – siedzących przy swoich komputerach i jednocześnie korzystających z telefonów. Ekrany emitują promienie, które pochłaniają ich uwagę. Nad nimi unoszą się liczne dłonie wyciągające się z ciemnego tła, trzymające smartfony i ikony mediów społecznościowych, takich jak Facebook, YouTube i serca symbolizujące polubienia. W tle widać cyfrowe postacie, symbole i elementy sugerujące wpływ internetu na dzieci. Całość utrzymana jest w mrocznej, surrealistycznej stylistyce, podkreślającej atmosferę kontroli i uzależnienia od technologii.
Typ_aktualnosc Aktualność
13 Marca 2025|8 min. czytania

Scrollowanie bez końca – jak algorytmy reżyserują życie młodzieży

Nastolatki dorastają w środowisku, w którym media społecznościowe, ciągłe powiadomienia i multitasking ekranowy stały się normą. To z kolei aktywuje pętlę dopaminową – mechanizm ewolucyjny, które platformy cyfrowe wykorzystują do kształtowania nawyków użytkowników.

Na zdjęciu widać mężczyznę w garniturze przemawiającego na konferencji. Stoi za przezroczystą mównicą z logotypem i napisem "EUROPEAN CYBERSECURITY CERTIFICATION CONFERENCE", z datą 12 March 2025 | Warsaw, Hybrid. W tle widoczny jest duży ekran z tym samym tytułem wydarzenia oraz logotypami instytucji, w tym Unii Europejskiej. Scena jest profesjonalnie oświetlona, a prelegent wygląda na uśmiechniętego i zaangażowanego w swoją wypowiedź.
Typ_aktualnosc Aktualność
12 Marca 2025|4 min. czytania

Warszawa centrum debaty o europejskim cyberbezpieczeństwie!

Eksperci, politycy i naukowcy z całej Europy dyskutują o tym jak zagwarantować cyberbezpieczne jutro. Trwa kolejna edycja prestiżowego wydarzenia – Cybersecurity Certification Week (CCW), które swoim patronatem objęły ENISA (Europejska Agencja ds. Cyberbezpieczeństwa) oraz Komisja Europejska.