Usta, głos, treść, tło. Umiesz rozpoznać deepfake? Sprawdź! Pomogą ci w tym eksperci NASK.
Jedną z najbardziej niepokojących technologii, używającej AI są deepfaki – zaawansowane fałszywe obrazy i nagrania, które na pierwszy rzut oka wydają się autentyczne. To zwykle wizerunki znanych osób, które oszuści chętnie wykorzystują, by nas nabrać. Jak rozpoznać deepfaki? Naukowcy NASK wyjaśniają to krok po kroku w naszym nowym cyklu wideo.


Co to jest deepfake?
Deepfake to efekt wykorzystania sztucznej inteligencji do generowania obrazów lub dźwięków, które imitują prawdziwe osoby. Może to być zmanipulowane nagranie wideo, w którym ktoś mówi coś, czego nigdy nie powiedział lub fałszywe nagranie głosowe przypisujące słowa danej osobie.
Niestety, ta technologia bywa wykorzystywana w nieetycznych celach, takich jak rozpowszechnianie dezinformacji, oszustwa finansowe czy naruszanie prywatności. Dlatego tak ważne jest, aby nauczyć się rozpoznawać deepfaki i chronić siebie oraz innych przed ich skutkami.
5 deepfake’owych wskazówek
Cykl wideo przygotowany przez naukowców z instytutu NASK to praktyczny 6-odcinkowy przewodnik, który krok po kroku uczy, bazując na konkretnych przykładach, jak identyfikować deepfaki i unikać pułapek cyfrowych manipulacji.
W każdym odcinku eksperci z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK – Joanna Gajewska i Michał Ołowski mówią, na jakie elementy zwracać uwagę, żeby rozpoznać wygenerowane treści. Dzięki temu będziesz lepiej przygotowany do weryfikowania treści, które widzisz w internecie i unikniesz potencjalnych zagrożeń.
Oto, czego możesz się spodziewać:
- Błędy w generacji obrazu
Dowiesz się, na co zwracać uwagę w wyglądzie twarzy – szczególnie w okolicy ust – gdzie często pojawiają się nieprawidłowości w renderowaniu. - Fałszywy głos
Poznasz typowe wpadki generowanych głosów, takie jak nieprawidłowa intonacja lub brak płynności wynikający z ignorowania interpunkcji. - Pułapki gramatyczne
Fałszywe treści tekstowe często zawierają błędy gramatyczne, szczególnie w odmianach liczebników i mogą one wskazywać na automatyczne generowanie tekstu. - Błędy logiczne i niespójności
Nauczysz się zauważać sytuacje, w których mowa ciała nie zgadza się z wypowiadanymi słowami, co może zdradzić manipulację. - Zabiegi maskujące
Zrozumiesz, jak efekty i tekstury nakładane na obraz mają na celu ukrycie niedoskonałości fałszywego obrazu.
Obejrzyj już teraz!
Nie daj się oszukać – nie pozwól, by deepfaki wprowadziły cię w błąd! Oglądaj nasz cykl wideo i dowiedz się, jak skutecznie rozpoznawać cyfrowe manipulacje. Odcinek pierwszy jest już dostępny na YouTube. Premiera kolejnego – już jutro.
Wyróżnione aktualności
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci
Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.
Od modeli do wdrożeń – PLLuM na ścieżce realnych zastosowań
PLLuM wspiera już w codziennej pracy urzędników w Gdyni i Poznaniu, a także miliony użytkowników aplikacji mObywatel. Podczas drugiego śniadania z PLLuMem podsumowano postępy w rozwoju polskiej sztucznej inteligencji. Uczestnicy spotkania poznali rezultaty projektu HIVE AI, plany publikacji nowych modeli oraz doświadczenia z pilotażowych wdrożeń.
Koryntia – gdy dezinformacja staje się bronią
Wyobraź sobie rok 2055. Świat, który znasz, właśnie się rozpada – zasoby są na wyczerpaniu, zaufanie stało się luksusem, a stabilność to wspomnienie. W tym chaosie pojawia się „Eksperyment”: selekcja, która ma wyłonić nielicznych szczęśliwców. Nagroda? Nowe życie w kolonii Koryntia.







