
Deepfaki - prawdziwy problem z fałszywą rzeczywistością
Fałszywe treści audiowizualne wygenerowane przez sztuczną inteligencję coraz skuteczniej zacierają granice między fikcją a rzeczywistością. Co więcej, ich wpływ nie ogranicza się już tylko do świata polityki czy biznesu, ale wkracza także w nasze codziennie życie.
Technologie oparte na sztucznej inteligencji rozwijają się w zawrotnym tempie, wspierając niemal każdy aspekt naszego codziennego życia, od rozrywki i pracy po edukację i bezpieczeństwo. Jednak wraz z postępem rośnie także skala zagrożeń.
Jednym z najbardziej niepokojących przykładów złośliwego wykorzystania sztucznej inteligencji przez cyberprzestępców jest technologia deepfake, generowanie realistycznych, lecz fałszywych treści wizualnych i dźwiękowych. Treści te są następnie wykorzystywane do dezinformacji, niszczenia reputacji i oszustw na niespotykaną dotąd skalę.
Czym dokładnie jest deepfake? Dlaczego rozpoznawanie fałszywych treści staje się coraz trudniejsze? Czy jesteśmy gotowi na wyzwania, jakie niesie ze sobą ta technologia?
Krótka i burzliwa historia deepfake’ów
Deepfake to technologia oparta na sztucznej inteligencji, która wykorzystuje generatywne sieci przeciwstawne (GAN) lub autoenkodery wariacyjne (VAE) do tworzenia realistycznych filmów, obrazów i dźwięków. Termin “deepfake” pochodzi z języka angielskiego i składa się z dwóch słów „deep”, odnoszącego się do głębokiego uczenia maszynowego oraz „fake”, oznaczającego coś fałszywego lub zmanipulowanego.
Historia realistycznie wyglądających, lecz fałszywych filmów tworzonych z wykorzystaniem sztucznej inteligencji sięga początku lat 2000. Jednak to rok 2017 przyniósł tej technologii duży rozgłos, gdy anonimowy użytkownik serwisu Reddit, posługujący się pseudonimem „deepfakes”, opublikował serię zmanipulowanych nagrań. W jego materiałach twarze aktorów i aktorek z filmów pornograficznych zostały zastąpione obliczami osób publicznych, celebrytów i polityków. Wydarzenie to wzbudziło wśród ekspertów ds. cyberbezpieczeństwa poważne i – jak się później okazało – uzasadnione obawy dotyczące potencjalnego nieetycznego wykorzystania technologii deepfake.”
Początkowo treści generowane przez sztuczną inteligencję charakteryzowały się stosunkowo niską jakością i zawierały łatwo rozpoznawalne błędy, ale rozwój technik uczenia maszynowego oraz rosnąca moc obliczeniowa systemów sprawiły, że współczesne deepfaki mogą wyglądać hiperrealistycznie. Eksperci zwracają uwagę, że w niedługim czasie deepfaki mogą stać się nie do odróżnienia od prawdziwych treści (1).
Dziś niemal każdy użytkownik komputera z dostępem do internetu może stworzyć realistycznie wyglądające filmy lub obrazy przedstawiające sytuacje, które w rzeczywistości nigdy nie miały miejsca. To właśnie między innymi z tego powodu zespół naukowców z University College London uznał w 2020 roku szkodliwe wykorzystanie technologii deepfake za jedno z najgroźniejszych przestępstw wspieranych przez sztuczną inteligencję. Z całą pewnością wkraczamy w erę cyberzagrożeń nowej generacji, które wykorzystują rosnącą zależność człowieka od technologii.
Po wideokonferencji z zarządem pracownik przelał 20 mln funtów. Zarząd stworzyła AI
Na początku lutego 2024 roku brytyjski dziennik „The Guardian” poinformował, że policja w Hongkongu prowadzi intensywne śledztwo w związku z wykorzystaniem technologii deepfake do wyłudzenia blisko 20 mln funtów brytyjskich. Dochodzenie zostało wszczęte po zgłoszeniu pracownika brytyjskiej firmy Arup, działającej w Chinach, który przekazał znaczną sumę pieniędzy osobom podającym się za wysokich rangą przedstawicieli firmy. Co ciekawe, pracownik przed wysłaniem pieniędzy dostał email z poleceniem przelania środków. Wiadomość ta wzbudziła w nim jednak pewne podejrzenia, dlatego pracownik wziął udział w wideokonferencji z dyrektorem finansowym i innymi członkami kadry zarządczej. W toku śledztwa okazało się jednak, że osoby uczestniczące w tym spotkaniu zostały wygenerowane przez sztuczną inteligencję na podstawie publicznie dostępnych zdjęć ich twarzy i próbek głosu. Przykład ten pokazuje nie tylko, jak duże ryzyko niesie ze sobą wykorzystanie nowych technologii przez cyberprzestępców, ale także jak skutecznie potrafią omijać krytyczne procedury bezpieczeństwa i usypiać czujność potencjalnych ofiar.
Zagrożenia związane z deepfake’ami. Manipulacje na niespotykaną skalę
Mając na uwadze stosunkowo łatwy dostęp do narzędzi umożliwiających tworzenie deepfake’ów oraz ich skuteczność, możemy spodziewać się wzrostu liczby cyberataków wykorzystujących tę technologię. Jak wynika z raportu Delloit z 2024 roku, niemal 26% dyrektorów przyznało, że ich organizacje doświadczyły w ciągu ostatnich 12 miesięcy co najmniej jednego incydentu z użyciem deepfaków, którego celem były dane finansowe. Dodatkowo, 50% badanych wraziło przekonanie, że spodziewa się nasilenia tego typu ataków w najbliższych 12 miesiącach(2). Warto wspomnieć również o raporcie McAfee, z którego wynika, że niemal 70% respondentów nie jest pewna, czy potrafią odróżnić głos sklonowany za pomocą sztucznej inteligencji od prawdziwego głosu (3).
Zmanipulowane filmy i nagrania przedstawiające liderów politycznych, lekarzy, biznesmenów czy celebrytów wygłaszających kontrowersyjne poglądy, reklamujących fałszywe produkty medyczne czy usługi finansowe są rozpowszechniane wśród użytkowników portali społecznościowych na niespotykaną dotąd skalę. Deepfaki są również wykorzystywane do tworzenia kompromitujących treści, które mogą powodować poważne straty wizerunkowe, finansowe i emocjonalne. Szczególnie niebezpiecznym zjawiskiem jest wykorzystywanie deepfake’ów przez służby nieprzychylnych państw do wzniecania niepokojów społecznych i konfliktów na tle narodowościowym, a także wpływania na wyniki wyborów.
Dlaczego tak trudno rozpoznać deepfaki?
Cyberprzestepcy wykorzystują nowoczesne technologie i podatności ludzkiego umysłu, aby skuteczniej osiągać swoje cele. Łącząc sztuczną inteligencję i wiedzę psychologiczną tworzą perswazyjne treści audiowizualne, które stają się niemal nieodróżnialne od rzeczywistości. Technologia ta wzbudza poważne obawy wśród psychologów, ponieważ ma ogromny potencjał do wpływania na procesy poznawcze i nasze przekonania. Cyberprzestępcy za pomocą fałszywych treści manipulują naszymi emocjami, takimi jak gniew czy strach, które obniżają zdolność krytycznego myślenia, wykorzystują zasady wywierania wpływu społecznego i skłonność do podejmowania nieracjonalnych decyzji pod presją czasu.
Nasza zdolność do rozpoznawania deepfake’ów jest ograniczona. Paradoksalnie, jednym z głównych powodów, dla których tak trudno odróżnić fikcję od rzeczywistości jest nasz mózg. Ewolucyjnie przystosowaliśmy się do interpretowania bodźców wzrokowych i słuchowych jako bezpośredniego odzwierciedlenia rzeczywistości. Innymi słowy to co widzimy i słyszymy, nie tylko stanowi źródło informacji o otaczającym nas świecie, ale niemal automatycznie zostaje przez nas uznawane za prawdę. Co ciekawe zarówno obraz, jak i dźwięk są dla nas bardziej wiarygodnymi źródłami wiedzy o rzeczywistości niż tekst(4).
Przestaniemy ufać własnym zmysłom czy ulegniemy nadmiernemu optymizmowi?
Oczywiście nie wszystkie deepfaki charakteryzują się bardzo wysokim poziomem realizmu. Zmanipulowane treści często zawierają widoczne artefakty, takie jak brak synchronizacji pomiędzy ruchem ust a dźwiękiem, nienaturalne oświetlenie twarzy czy też niewłaściwe proporcje ciała (wyjaśnialiśmy to w wideo cyklu „Jak rozpoznać deepfake” na YT NASK). Takie błędy mogą ułatwić rozpoznanie zmanipulowanego nagrania, jednak w praktyce bywa to znacznie trudniejsze niż mogłoby się wydawać.
Jednym z głównych powodów jest sposób, w jaki konsumujemy treści w internecie. Wielu użytkowników uzyskuje do nich dostęp wyłącznie na urządzeniach mobilnych. Niewielkie ekrany mogą skutecznie maskować niedoskonałości deepfake’ów, czyniąc je niezauważalnymi dla przeciętnego użytkownika.
Deepfake podważają zaufanie do naszych zmysłów i nawet osoby świadome istnienia tej technologii mogą mieć trudności z odróżnieniem prawdy od fałszu, zwłaszcza gdy fałszywe treści są osadzone w realistycznym kontekście. Warto również zwrócić uwagę na błędy poznawcze, a zwłaszcza na efekt prawdy iluzorycznej, który sprawia, że jesteśmy bardziej skłonni uwierzyć w fałszywą informację, jeśli jest ona wielokrotnie eksponowana i staje się dla nas znajoma.
Efekt ten ma szczególne znaczenie dla twórców dezinformacji, którzy posługując się fałszywymi, często eksponowanymi treściami wpływają na poglądy, decyzje i zachowania innych ludzi. Co więcej, jesteśmy przekonani, że problem deepfake’ów dotyczy znacznie bardziej innych osób niż nas samych, a także, że jesteśmy lepsi w odróżnianiu deepfake’ów niż inni ludzie. Uprzedzenia te niekoniecznie pokrywają się z rzeczywistością(5). Jak wynika z badań opublikowanych w 2021 roku zdolność ludzi do rozpoznawania fałszywych treści jest bardzo zróżnicowana, a skuteczność waha się od 57% do 89%. Oznacza to, że nawet w najbardziej optymistycznym scenariuszu ludzie nie są w stanie wykryć 11 na każde 100 deepfake’ów, podczas gdy w najgorszym przypadku aż 43 na 100 takich materiałów pozostaje nierozpoznanych.
Fałsz jest atrakcyjniejszy niż prawda
Wykrywanie deepfake’ów dodatkowo utrudnia nadmiar informacji, z którymi mierzymy się każdego dnia. Użytkownicy internetu, mediów społecznościowych są bombardowani ogromną liczbą filmów, zdjęć i artykułów, których prawdziwości nie są w stanie zweryfikować. Najczęściej z braku czasu, narzędzi lub chęci.
Choć może nam się to wydawać sprzeczne z logiką, to fałsz bywa dla nas bardziej atrakcyjny i ciekawszy niż prawda. Fałszywe treści często są skonstruowane w sposób, który angażuje nasze emocje, jest sensacyjny i bardziej zwraca naszą uwagę. Badania opisane już kilka lat temu w czasopiśmie „Science” pokazały, że fałszywe treści rozpowszechniane na Twitterze (obecnie X) docierały do 1500 użytkowników niemal 6 krotnie szybciej niż informacje prawdziwe. Co więcej, miały one o 70% większe szanse na udostępnienie innym użytkownikom, co dodatkowo zwiększało ich zasięg i wpływ.
Niestety, pomimo rosnącej skali problemu jako społeczeństwo wciąż nie mamy wystarczającej wiedzy ani publicznie dostępnych narzędzi, które pozwoliłyby nam skuteczniej rozpoznawać deepfaki. Ograniczona świadomość na temat technik manipulacyjnych wykorzystywanych przez cyberprzestepców sprawiają, że stajemy się szczególnie podatni na ich wpływ.
Jak przeciwdziałać zagrożeniom spowodowanym przez deepfaki?
Rosnąca popularność technologii deepfake może prowadzić do wielu poważnych konsekwencji, z których najgroźniejszą wydaje się nie tyle sam wzrost liczby przestępstw z wykorzystaniem sztucznej inteligencji, ale postępująca erozja zaufania do mediów. W dłuższej perspektywie deepfaki mogą przyczynić się do narastającego sceptycyzmu i kwestionowania prawdziwości wszelkich dostępnych treści audiowizualnych.
- Edukacja
Aby skutecznie przeciwdziałać temu problemowi, niezbędne są skoordynowane działania w kilku kluczowych obszarach. Przede wszystkim istotna jest edukacja, która powinna objąć możliwie szerokie spektrum społeczeństwa. Dedykowane warsztaty, kampanie społeczne czy kursy edukacyjne zwiększające umiejętności korzystania z mediów, powinny być skierowane w pierwszej kolejności do grup szczególnie narażonych na manipulację – dzieci, młodzieży, osób starszych, przewlekle chorych oraz osób znajdujących się w trudnej sytuacji finansowej, które często są celem cyberprzestępców, obiecujących szybki zysk. Kluczowe jest budowanie świadomości i kompetencji, które umożliwią lepsze rozpoznawanie fałszywych treści i tego, jak się przed nimi bronić.
- Przepisy prawne
Kolejny etap to wdrożenie przepisów prawnych dotyczących szkodliwego wykorzystania technologii deepfake. Powinny one precyzować odpowiedzialność osób tworzących i rozpowszechniających zmanipulowane treści, uwzględniając kary za naruszenia prawa, takie jak oszustwa, szantaż, dezinformację czy niszczenie reputacji. W odpowiedzi na zagrożenia związane z rozpowszechnianiem m.in. deepfake’ów Unia Europejska przedstawiła dwa akty prawne (Digital Services Act i AI Act), które nakładają na duże platformy internetowe obowiązek identyfikowania i oznaczania tego rodzaju treści, a także wspierania przejrzystości i etyki wykorzystywanych rozwiązań opartych o sztuczną inteligencję.
Obecnie państwa członkowskie napotykają liczne trudności w dostosowywaniu prawa do szybko zmieniającej się rzeczywistości technologicznej. Kluczowe wyzwania obejmują nie tylko różnice w implementacji przepisów na poziomie krajowym i w wykrywaniu deepfake’ów, ale także brak odpowiednich narzędzi technologicznych do skutecznego identyfikowania zmanipulowanych treści w czasie rzeczywistym.
Z tego powodu deepfaki często stają się wiralami docierającymi do milionów użytkowników, zanim platformy zareagują i oznaczą daną treść jako wygenerowaną przez AI. Problem ten jest bardziej skomplikowany niż mogłoby się wydawać. Z jednej strony regulacje powinny chronić użytkowników przed nadużyciami. Z drugiej – nie mogą ograniczać wolności słowa. Wszystko to sprawia, że walka z deepfake’ami jest nie tylko wyzwaniem technologicznym, ale także etycznym i politycznym.
- Pomoc ofiarom cyberataków
Nie możemy również zapominać o wsparciu ofiar cyberprzestępstw opartych na deepfake’ach. Stworzenie specjalnych programów terapeutycznych mogłoby pomóc w powrocie do równowagi psychicznej i normalnego funkcjonowania, a także zminimalizować długofalowe skutki traumy.
Wyścig naukowców z cyberprzestępcami
Chociaż naukowcy intensywnie pracują nad doskonaleniem algorytmów wykrywających deepfaki, to długoterminowa skuteczność takich rozwiązań może być ograniczona. Deepfaki stają się coraz bardziej zaawansowane, co sprawia, że systemy detekcji również muszą nieustannie ewoluować, by nadążyć za zmianami. Może to doprowadzić do „wyścigu zbrojeń”, w którym to naukowcy będą o krok za cyberprzestępcami wykorzystującymi rozwój technologiczny do udoskonalania przestępczych metod. Dlatego technologia, choć ważna, nie może być jedynym filarem walki z tym problemem. Nowoczesne cyberbezpieczeństwo to cyberbezpieczeństwo skoncentrowane na człowieku. Kluczowe jest połączenie innowacji technologicznych z edukacją, przepisami prawnymi i wspieraniem społeczności w budowaniu odporności na manipulacje.
[1] Etienne H. The future of online trust (and why Deepfake is advancing it). AI and Ethics. 2021;1(4):553–562. doi: 10.1007/s43681-021-00072-1
[2] us-generative-ai-and-the-fight-for-trust.pdf
[3] Mcafee. (2023). Sztuczni oszuści — cyberprzestępcy zwracają się do klonowania głosu AI w celu uzyskania nowego rodzaju oszustwa.
mcafee.com/blogs/privacy-identity-protection/artificial-imposters-cybercriminals-turn-to-ai-voice-cloning-for-a-new-breed-of-scam/
[4] Vaccari C, Chadwick A. Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society. 2020;6(1):2056305120903408. 10.1177/2056305120903408.
[5] Ahmed, S. (2023). Examining public perception and cognitive biases in the presumed influence of deepfakes threat: empirical evidence of third person perception from three studies. Asian journal of communication, 33(3), 308-331.
