Jak rozpoznać deepfake po błędach w głosie?
Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.


Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek.
W naszym najnowszym odcinku Joanna Gajewska z NASK, która na co dzień zajmuje się analizą i badaniem generowanych treści, wskazuje konkretne przykłady błędów w generowanym głosie. Sprawdź jak w praktyce zastosować te wskazówki, by nie dać się nabrać na oszustwo.
Sygnały w głosie zdradzające deepfake
Twórcy deepfake’ów, manipulując głosem, używają zaawansowanych modeli generatywnych, które jednak nie są doskonałe. Oto typowe błędy, które mogą zdradzić oszustów:
- Nietypowa intonacja
Generowane głosy nie interpretują znaków interpunkcyjnych. Skutkuje to dziwnym rytmem wypowiedzi. Może to wyglądać tak, jakby osoba mówiła bez przerwy, nie uwzględniając naturalnych pauz czy akcentów. - Zmiana akcentu lub języka
Niekiedy w trakcie nagrania można usłyszeć subtelną zmianę akcentu, co jest efektem niedokładnej synchronizacji modelu. W ekstremalnych przypadkach zdarzają się nawet przejścia z jednego języka na inny. - Nagłe zmiany głośności
Fałszywe głosy często zdradzają swoją sztuczność poprzez niespodziewane wahania poziomu głośności. Przykładowo, jedna część wypowiedzi może być wyjątkowo głośna, a inna ledwo słyszalna. - Nienaturalne lub brakujące odgłosy tła
Warto zwrócić uwagę na dźwięki w tle. Jeśli brakuje naturalnych odgłosów środowiska, takich jak echo w pomieszczeniu czy szum otoczenia, może to być sygnałem, że głos został wygenerowany. - Syntetyczna barwa głosu
Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek.
Nie przegap kolejnego odcinka
Wiedza to najlepsza obrona przed cyfrowymi manipulacjami. Świadomość jak odróżniać prawdziwe głosy od fałszywych, pomoże podczas codziennego korzystania z internetu i mediów społecznościowych rozpoznawać techniki, które stosują oszuści.
Premiera kolejnego odcinka już za tydzień. Będzie on poświęcony błędom logicznym w deepfake’ach – czyli nieoczywistym, ale zdradzającym manipulację sygnałom.
Wyróżnione aktualności
Trzy pytania o SECURE Summit 2025 do prof. Agnieszki Gryszczyńskiej z Prokuratury Krajowej
Co pomogło ustalić tożsamość sprawców konkretnych cyberprzestępstw? Co sprzyja zwalczaniu cyberprzestępczości i jakie zmiany w prawie należałoby wprowadzić? Prof. ucz. dr hab. inż. Agnieszka Gryszczyńska*, dyrektorka Departamentu ds. Cyberprzestępczości w Prokuraturze Krajowej zaprasza na swój panel i na tę jedyną w swoim rodzaju konferencję.
Domeny.pl - polska domena rośnie w siłę
Świetne wieści dla rynku domeny .pl. Polskie adresy internetowe zyskują na popularności, a statystyki pokazują, że coraz więcej osób i firm decyduje się na wybór właśnie tej końcówki. W ostatnim kwartale 2024 roku zarejestrowano 194 628 nowych domen – to tak, jakby co dwie minuty pojawiały się trzy nowe nazwy!
Cyberbezpieczne dzieci – jak technologie pomagają chronić najmłodszych
Ponad połowa nastolatków w Polsce doświadczyła już jakiejś formy cyberprzemocy. Jak więc chronić dzieci, nie odbierając im dostępu do cyfrowego świata? Z pomocą przychodzą nowoczesne technologie i świadome towarzyszenie, czyli monitoring tego co robią najmłodsi w sieci.
Polska w czołówce rozwiązań technologii kwantowej
Opracowane w Polsce urządzenia QKD są gotowe do działania. Ich możliwości pokazało dzisiejsze połączenie między Ministerstwem Cyfryzacji a WAT. Bezpieczna, polska technologia to ważny krok ku uniezależnieniu się od zagranicznych dostawców i suwerenności cyfrowej oraz część europejskiego projektu łączności satelitarnej.
Najnowsze aktualności
Nie pozwól sobie odebrać głosu! Kampania NASK
Trzy spoty, trzy historie, tajemniczy gość, i jedna myśl, która zostaje na długo: skąd wiesz, że to, co widzisz, jest prawdą?
Rosyjskie lub białoruskie źródło informacji – bądźcie ostrożni. Rekomendacje dla mediów
Białoruskie służby podały, że zapobiegły przemytowi największej w historii partii materiałów wybuchowych z Polski na terytorium Białorusi i Rosji. Informację tę publikują polskie media. Apelujemy o ostrożność i informowanie odbiorców, że to może być dezinformacja.
Sukces NASK. Ewelina Bartuzi-Trokielewicz z grantem LIDERA
Fałszywe reklamy inwestycyjne, deepfake’i z celebrytami i linki, które prowadzą donikąd – właśnie z tym mierzy się Ewelina Bartuzi-Trokielewicz w swoim nowym projekcie badawczym.