Typ_aktualnosc Aktualność
30 Stycznia 2025|7 min. czytania

Chałkoń z farmy lajków. Humor w Social Mediach i jego ciemne oblicze

Internet żyje trendami, a jednym z największych w ostatnim czasie jest tzw. „chałkoń”. Wygenerowany przez sztuczną inteligencję żart, wskazuje na skuteczność virali w kształtowaniu opinii publicznej i skłania do pytań o zagrożenie rozprzestrzeniania się dezinformacji.

Ilustracja przedstawia zdjęcie rentgenowskie ludzkiej głowy w profilu, ale zamiast mózgu znajduje się w niej spleciona chałka. Tło jest ciemnoniebieskie, co kontrastuje z jasnym pieczywem i rentgenowskimi kośćmi czaszki. Obrazek ma humorystyczny i surrealistyczny charakter.
Łuna gradientu wychodząca od dołu

Żywot „Chałkonia” rozpoczął się jako satyryczny post na Facebooku na fanpage’u „Polska w dużych dawkach”. Twórcy profilu dostrzegając, że portal jest zalewany generycznymi postami tworzonymi pod starszych użytkowników portalu o treści „ktoś zrobił X, ale nikt mu nie pogratulował” postanowili dla żartu przygotować własną wersję takiego posta. Opublikowali grafikę przedstawiające nietypowy wypiek – ogromną chałkę w kształcie przypominającym konia z dopiskiem „Ta kobieta upiekła chałkonia, ale nikt jej nie pogratulował”. Dla tysięcy internautów wygenerowana przez sztuczną inteligencję grafika okazała się na tyle przekonująca, że uznali oni historię za prawdziwą. 

„Chałkoń okazał się bestią, której potęgi nie doceniliśmy” – napisali po kilku dniach autorzy fanpage’u „Polska w dużych dawkach”. 

Wnętrze piekarni, w której znajduje się ogromna rzeźba konia wykonana z chałki posypanej sezamem. Koń ma realistyczny kształt i szczegóły anatomiczne, a jego powierzchnia jest błyszcząca i złocista. Obok niego stoi uśmiechnięta kobieta w białym stroju piekarskim, opierając dłoń na nogach gigantycznego chlebowego konia. W tle widoczne są półki pełne bochenków chleba oraz kuchenne wyposażenie piekarni.
źródło: facebook @Polska w dużych dawkach

Trend szybko rozprzestrzenił się w sieci i zyskał ogromną liczbę komentarzy, memów i przeróbek graficznych. Popularność „chałkonia” doprowadziła do tego, że wiele firm i marek zaczęło wykorzystywać go w swoich kampaniach reklamowych. Internetowe żarty o „chałkoniu” stały się niemal kultowe. Za całą akcją kryją się jednak ważniejsze kwestie: podatność ludzi na dezinformację i siła viralowych treści. 

„Tym przerysowanym, karykaturalnym postem zebraliśmy ogromne zasięgi, post zobaczyło ponad milion osób. W komentarzach pojawiły się nieironiczne gratulacje dla twórczyni Chałkonia, głównie od starszych osób, przeplatane oczywiście ze śmieszkami czy (na szczęście) ostrzeżeniami, że to jest grafika AI” – zauważają autorzy fanpage’u „Polska w dużych dawkach”. 

Jak zwracają uwagę twórcy fanpage’u, historia chałkonia to dowód na to, że takich sytuacji będzie coraz więcej, ten niewinny żart pokazuje dużo szerszy i niebezpieczny problem.  

„Najwięcej materiałów wygenerowanych przy użyciu sztucznej inteligencji, na które możemy natrafić, pojawia się na platformach społecznościowych. Często są to materiały tworzone masowo, różniące się jedynie drobnymi szczegółami, takimi jak odgłosy w tle czy inne niewielkie zmiany. Analizując metadane takich treści – publikowanych najczęściej w formie reklam – można zauważyć, że najbardziej popularną grupą odbiorców są osoby w wieku 45–60 lat. Oszuści mają możliwość samodzielnego wyboru grupy docelowej, co sugeruje, że populacja w tym przedziale wiekowym może być uznawana za „najłatwiejszy” cel cyberprzestępców. Warto zwrócić na to uwagę, przyglądając się temu trendowi – podkreśla Adrian Kordas, ekspert z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK 

Humor kontra Dezinformacja 

Fenomen „chałkonia” pokazuje, że internauci uwielbiają humorystyczne, absurdalne treści, które pozwalają na chwilowe oderwanie się od codziennych problemów. Ten rodzaj rozrywki łączy ludzi i pobudza twórczość. Jednak, mimo że „chałkoń” był żartem, jego dynamiczne rozprzestrzenianie się pokazało, jak łatwo można zmanipulować ludzi, nawet za pomocą oczywistej fikcji. Wiele osób uwierzyło w autentyczność tej historii, dowodzi to, jak podatni jesteśmy na niezweryfikowane informacje w mediach społecznościowych.  

“Ludzie w pierwszym kontakcie z nową informacją mają tendencję do automatycznego uznawania jej za prawdziwą. Dopiero gdy dostrzeżemy szczegóły, które wskazują na potencjalne oszustwo, zaczynamy ją kwestionować. Wraz z rosnącą skutecznością sztucznej inteligencji w generowaniu wysokiej jakości obrazów i tekstów, rozpoznanie takich szczegółów staje się coraz trudniejsze. Dodatkowo mała wiedza o metodach tworzenia tych treści, domyślne zaufanie do treści w Internecie oraz socjotechniki wzmacniające zaangażowanie odbiorców sprawiają, że tego typu publikacje zyskują na popularności, a ich fałszywy charakter umyka uwadze wielu internautów” – zwraca uwagę Michał Ołowski z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK. 

Im bardziej absurdalna lub emocjonalna treść, tym większe prawdopodobieństwo, że zostanie masowo udostępniona i przetworzona, a nie wszyscy potrafią oddzielić żart od rzeczywistości. W przypadku „chałkonia” sytuacja wydaje się nieszkodliwa, ale mechanizm, na którym się opiera, może być wykorzystywany do mniej żartobliwych celów. 

„Weryfikowanie źródeł i rozwijanie umiejętności krytycznego myślenia są kluczowe. Choć humor jest niezwykle ważnym elementem kultury internetowej, nie możemy pozwolić, aby przerodził się w narzędzie manipulacji czy chaosu informacyjnego, a to realne zagrożenie, zwłaszcza w kontekście zbliżających się w Polsce kolejnych wyborów” – dodaje ekspert z Ośrodka Analizy Dezinformacji z NASK, Andrzej Kozłowski.  

„Chałkoń” jako ostrzeżenie 

W historii „chałkonia” trudno doszukiwać się elementów dezinformacji jednak nie można pominąć, że wpisuje się on w zjawisko AI slop (ang. artifficial intelligence – sztuczna inteligencja i slop – pomyje), czyli generowanie grafik, które są tandetne i dość łatwo rozpoznać, że nie przedstawiają rzeczywistości. A to z kolei może (choć nie zawsze musi) łączyć się z AI slop boomertrap, czyli pułapki na boomera, na którą “złapać” mogą się osoby urodzone w latach 1940-1970.  

Żeby mówić o AI slop boomertrap, publikacja treści musi mieć na celu poszerzanie zasięgu w mediach społecznościowych, żeby generować reakcje np. w celu przeprowadzenia zaplanowanej akcji dezinformacyjną, która ma określony cel – zrzeszenie jednostek wokół danego tematu. 

Celem tego rodzaju akcji mogą być nie tylko oszustwa i aktywizacja użytkowników, ale również gromadzenie danych o profilach wybranej, podatnej grupy odbiorców w celu późniejszego prowadzenia kampanii dezinformacyjnych. 

Generatywny spam 

„Chałkoń” to idealny przykład na to, jak viralowe treści mogą wpływać na masową wyobraźnię. Z jednej strony to zabawny fenomen, który zjednoczył internautów wokół humorystycznego żartu, z drugiej – ostrzeżenie przed siłą dezinformacji i potrzebą krytycznego podejścia do treści w sieci.  

„Internet daje ogromne możliwości twórcze, ale wymaga też odpowiedzialności – bo nawet chałka w kształcie konia może pokazać, jak łatwo dać się wprowadzić w błąd. To szczególnie ważne w momencie, gdy Social Media, a w szczególności Facebook są zalewane treściami niskiej jakości, które generują algorytmy AI” – podsumowuje Michał Ołowski z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK. 

Generowane przez AI grafiki mogą być wykorzystywane przez spamerów i do szerzenia fałszywych informacji, manipulując faktami i przyciągając uwagę użytkowników. W przypadku szkodliwych treści zawsze warto przeciwdziałać, zgłaszając materiał jako spam bezpośrednio na platformie społecznościowej. Trzeba jednak mieć na uwadze, że przez brak odpowiednich regulacji na platformach takich jak Facebook, skuteczna moderacja treści jest trudna. W tym momencie najlepszą ochroną jest edukacja i ostrożność samych użytkowników w konfrontacji z postami, które pojawiają się w mediach społecznościowych.  

Odnośniki

Logo Funduszy Europejskich, flaga Polski, flaga Unii Europejskiej z tekstem o dofinansowaniu oraz logo NASK.

Projekt dofinansowany przez UE.

Wyróżnione aktualności

Trzy postaci, jedna kobieta i dwóch mężczyzn, z wykrzywionymi twarzami, nastroszonymi włosami i wielkimi uszami trolli. Mają miny jakby coś knuły, jeden z mężczyzn zaciera ręce z długimi szponami.
Typ_aktualnosc Aktualność
27 Listopada 2024|5 min. czytania

Jak nie dać się trollom? Kampania o dezinformacji Ministerstwa Cyfryzacji i NASK

Ministerstwo Cyfryzacji, wspólnie z NASK, stworzyło ogólnopolską kampanię społeczną. Poprzez dialogi trolli, w obrazowy sposób pokazano mechanizmy i cele dezinformacji, zachęcając do świadomego ograniczania jej rozprzestrzeniania.

Abstrakcyjna grafika przypominająca niebieski, świetlny pierścień, z praej strony napis Internet Governance Forum Polska, Warszawa, 28 listopada 2024
Typ_aktualnosc Aktualność
26 Listopada 2024|3 min. czytania

Cyfrowe priorytety polskiej prezydencji w UE

Zapraszamy do rejestracji by wziąć udział w kolejnej edycji Szczytu Cyfrowego IGF Polska. Spotkanie odbędzie się w tym tygodniu w Warszawie. Będzie to idealna okazja, by dokładnie poznać cyfrowe priorytety przyszłorocznej polskiej prezydencji w Radzie Unii Europejskiej.

Mężczyzna ( K. Gawkowski) stoi przy mównicy z napisem Ministerstwo cyfryzacji, za nim przy drugiej mównicy dwie kobiety słuchające tego co mówi.
Typ_aktualnosc Aktualność
08 Listopada 2024|6 min. czytania

Nowa funkcja w mObywatelu dla większej ochrony dzieci

W aplikacji mObywatel wprowadzono nową opcję zgłaszania nielegalnych treści w ramach usługi „Bezpiecznie w sieci”. Dzięki tej funkcji użytkownicy mogą szybko i łatwo zgłaszać niepokojące materiały znalezione w internecie, w szczególności treści związane z nieodpowiednimi zachowaniami wobec dzieci.

Podczas jubileuszowej edycji Forum Teleinformatyki dyrektor instytutu badawczego NASK odebrał nagrodę specjalną za EZD RP. Nowy system do elektronicznego zarządzania dokumentacją wdrożono już w ponad 820 podmiotach administracji publicznej. Z systemów klasy EZD wytwarzanych, wdrażanych i utrzymywanych przez NASK (EZD PUW i EZD RP) korzysta łącznie ponad 3700 jednostek.
Typ_aktualnosc Aktualność
24 Września 2024|4 min. czytania

Nagroda specjalna XXX-lecia Forum Teleinformatyki dla EZD RP

Podczas jubileuszowej edycji Forum Teleinformatyki dyrektor instytutu badawczego NASK odebrał nagrodę specjalną za EZD RP. System do elektronicznego zarządzania dokumentacją wdrożono już w ponad 820 podmiotach administracji publicznej.

Informacje

Najnowsze aktualności

Kilka osób siedzi przy stole w trakcie spotkania
Typ_aktualnosc Aktualność
30 Stycznia 2025|6 min. czytania

Dezinformacja, fake newsy i cyberzagrożenia – czy nasze wybory są bezpieczne?

Kilkudziesięciu ekspertów z NASK, organizacji pozarządowych oraz uczelni wyższych, połączyło siły by dyskutować o tym, jak skutecznie chronić wybory prezydenckie przed dezinformacją i cyberatakami.

Ilustracja przedstawia czerwone serce z napisem „Wielka Orkiestra Świątecznej Pomocy” na tle granatowej grafiki z abstrakcyjnymi, białymi elementami przypominającymi tuby lub fale. Po lewej stronie znajduje się niebieska puszka z logo płatności, wokół unoszą się mniejsze czerwone serduszka. Styl jest nowoczesny i energetyczny.
Aktualność
24 Stycznia 2025|3 min. czytania

NASK gra w 33. Finale Wielkiej Orkiestry Świątecznej Pomocy!

Lekcja z mistrzem tańca towarzyskiego, miód z własnej pasieki, godzina jazdy konnej, trening z Mistrzem Polski w badmintonie, potrójnie czekoladowe brownie i cytrynowa tarta – to tylko niektóre „dobra” wystawione na wewnętrzne licytacje przez pracowniczki i pracowników NASK. Instytut po raz drugi w historii przyłącza się do zbiórki organizowanej przez WOŚP, by wesprzeć onkologię i hematologię dziecięcą.

Grafika przedstawia Igę Świątek, Andrzeja Dudę, Paulinę Hennig-Kloska w pionowych prostokątach na niebieskim tle, z centralnym napisem: 'DEEPFAKE Nie wierz, w to co słyszysz'. Napis 'DEEPFAKE' wyróżnia się kolorem czerwonym, a słowo 'słyszysz' jest podkreślone i zaznaczone na niebiesko. Obrazek wskazuje na zagrożenia związane z technologią deepfake i zwraca uwagę na ostrożność w odbiorze treści multimedialnych.
Aktualność
23 Stycznia 2025|3 min. czytania

Jak rozpoznać deepfake po błędach w głosie?

Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.