Platformy nie czują odpowiedzialności. Akt oskarżenia
– To jest zły raport dla Polski. Rysuje dramatyczny obraz zaniechań po stronie konkretnych podmiotów – mówił o raporcie przygotowanym przez NASK wicepremier i minister cyfryzacji Krzysztof Gawkowski.


Analitycy Ośrodka Analizy Dezinformacji NASK przez cały 2025 rok zgłaszali takie materiały platformom społecznościowym. W sumie niemal 47 tysięcy treści, które naruszały regulaminy serwisów lub wprowadzały użytkowników w błąd. Zniknęło zaledwie 12 procent z nich. Co piąta zgłoszona treść pozostaje dostępna w sieci do dziś.
– Nasze zespoły wykonały olbrzymią pracę. To godziny, dni i miesiące analizowania treści po to, żeby polska infosfera była bezpieczna. A przecież wśród tych zgłoszeń są nie tylko manipulacje czy oszustwa, ale także podszywanie się pod osoby publiczne, nawoływanie do przemocy, pornografia czy drastyczne materiały z brutalnych przestępstw, w tym nagrania z morderstw. Takie rzeczy powinny znikać z internetu natychmiast. Tak się nie dzieje, bo platformy nie czują odpowiedzialności – a nie czują jej dlatego, że wciąż brakuje prawa, które by ją wymusiło – podkreśla wicepremier i minister cyfryzacji Krzysztof Gawkowski.
Dezinformacja uderza w bezpieczeństwo państwa
Dezinformacja w polskiej infosferze nie jest dziś wyłącznie problemem jakości debaty w internecie. Coraz częściej staje się elementem presji informacyjnej wobec państw i społeczeństw. Fałszywe informacje, manipulacyjne narracje czy skoordynowane kampanie wpływu mogą wzmacniać społeczne napięcia, podważać zaufanie do instytucji publicznych, a w sytuacjach kryzysowych – wywoływać realne poczucie zagrożenia.
Polska należy dziś do najbardziej atakowanych państw w Unii Europejskiej w obszarze cyberbezpieczeństwa. W tym kontekście infosfera – przestrzeń, w której krążą informacje, manipulacje i narracje wpływu – staje się jednym z kluczowych obszarów bezpieczeństwa państwa.
– Brak bezpieczeństwa i brak wiedzy o faktach sprowadza chaos. Chaos budzi emocje, a perspektywa chaosu i emocji w społeczeństwie zawsze jest zagrożeniem dla bezpieczeństwa państwa. Praca nad bezpieczeństwem infosfery jest jednym z kluczowych elementów budowy odporności państwa – także na to, jak takie treści mogą wpływać na zachowania Polek i Polaków, na ich decyzje, na poczucie bezpieczeństwa – mówi wicepremier i minister cyfryzacji Krzysztof Gawkowski.
Dlatego działania związane z analizą i zgłaszaniem dezinformacji nie są dziś wyłącznie kwestią porządkowania przestrzeni informacyjnej. Coraz częściej stają się elementem szerszej strategii budowania odporności państwa na operacje wpływu i manipulację informacyjną.
Szczególnie wyraźnie widać to w momentach kryzysów międzynarodowych. W takich sytuacjach przestrzeń informacyjna bardzo szybko wypełnia się fałszywymi lub manipulacyjnymi treściami, które próbują wykorzystać niepewność i emocje społeczne.
Przykładem są wydarzenia z ostatnich dni związane z wybuchem wojny na Bliskim Wschodzie. Po rozpoczęciu działań zbrojnych w sieci zaczęły pojawiać się materiały wykorzystujące konflikt do rozpowszechniania dezinformacji – również w polskiej infosferze.
– Już pierwsze godziny wojny pokazały, jak szybko pojawiają się nowe narracje dezinformacyjne. Widzimy treści, które wykorzystują wydarzenia międzynarodowe, żeby wprowadzać chaos informacyjny także w Polsce – mówi wicepremier i minister cyfryzacji Krzysztof Gawkowski.
Jak podkreśla, właśnie w takich momentach szczególnie widać, jak silnie przestrzeń informacyjna wpływa na poczucie bezpieczeństwa obywateli.
– Brak bezpieczeństwa i brak wiedzy o faktach sprowadza chaos. Chaos budzi emocje, a perspektywa chaosu i emocji w społeczeństwie zawsze jest zagrożeniem dla bezpieczeństwa państwa – dodaje.
Platformy moderują, ale treści nadal krążą
Jednym z najważniejszych wniosków raportu jest sposób, w jaki platformy społecznościowe reagują na zgłoszenia dotyczące szkodliwych treści. W wielu przypadkach zamiast trwałego usunięcia materiału stosowana jest tzw. moderacja – ograniczenie zasięgu wpisu, oznaczenie go jako wątpliwego lub zawieszenie konta.
Z perspektywy funkcjonowania infosfery oznacza to, że treść przez długi czas pozostaje w obiegu informacyjnym. Zanim platforma podejmie decyzję, materiał może dotrzeć do tysięcy, a czasem milionów użytkowników.
– Każda ściągnięta treść z naszej perspektywy i tak jest w pewnym sensie porażką. Dlaczego? Bo nie reagowała sama platforma, często lekceważąc własne regulaminy, bo treści, których zdjęcia się domagamy zdążyły już zrobić zasięgi. Czas reakcji to często nie są minuty, a nawet nie godziny. To bywają dni, a czasem tygodnie – mówi Radosław Nielek, dyrektor NASK.
W praktyce oznacza to, że dużą część pracy związanej z wyszukiwaniem i dokumentowaniem takich treści wykonują zespoły analityczne zajmujące się analizą infosfery. Ośrodek Analizy Dezinformacji NASK każdego dnia przegląda tysiące wpisów, nagrań i reklam pojawiających się w mediach społecznościowych, identyfikując materiały naruszające regulaminy platform i przygotowując dokumentację zgłoszeń.
– To jest rzeczywiście frustrujące. Uważam, że mój zespół pracuje za platformy. Przyznają się do tego usuwając niektóre treści albo ograniczając ich widoczność. Potwierdzają, że są one niezgodne z ich regulaminami, tyle tylko, że nie chcą wziąć na siebie kosztów moderacji – mówi Radosław Nielek.
– Proszę pamiętać, że to, co jest ściągane lub ograniczane, to nie jest to, co nam się wydaje dezinformacją. To jest to, co platformy uznały za sprzeczne z własnym regulaminem – dodaje dyrektor NASK.
Jednocześnie – jak podkreślają autorzy raportu – materiały dezinformacyjne i manipulacyjne często generują bardzo duże zasięgi, a więc także przychody z reklam wyświetlanych obok nich.
– Chcę połączyć kropki. Dlaczego te treści nie znikają z internetu w czasie rzeczywistym? Ja stawiam akt oskarżenia, że platformy na tym zarabiają. Im więcej takich treści, tym więcej obejrzeń i wyświetleń, tym więcej klików i tym więcej zarabiania. Tak to wygląda – mówi wicepremier i minister cyfryzacji Krzysztof Gawkowski.
– Treści nie znikają, bo na nich się zarabia. Nie ma innego kontekstu. Przynajmniej ja, jako minister cyfryzacji, nie wierzę, że jest inny – dodaje.
Dlatego – jak zaznacza – dyskusja o odpowiedzialności platform społecznościowych nie dotyczy wyłącznie samego usuwania treści, ale także tego, kto w praktyce ponosi koszt utrzymania bezpiecznej przestrzeni informacyjnej.
Bez prawa platformy nie poczują odpowiedzialności
Zdaniem autorów raportu jednym z największych problemów pozostaje brak narzędzi prawnych, które pozwalałyby skuteczniej egzekwować odpowiedzialność platform za treści publikowane w ich serwisach.
– W wielu państwach Unii Europejskiej widać, że po wprowadzeniu ustawy o usługach cyfrowych platformy zaczęły reagować szybciej. W Polsce wciąż często reagują dniami, a nie godzinami – mówi Krzysztof Gawkowski.
Minister cyfryzacji podkreśla, że bez odpowiednich regulacji państwo w relacji z globalnymi platformami pozostaje w znacznie słabszej pozycji.
– Dopóki nie będzie prawa, państwo w relacji z platformami jest w sytuacji, w której może jedynie prosić o reakcję.
Jednocześnie eksperci zwracają uwagę, że to tylko fragment problemu. Liczba zgłoszonych materiałów jest niewielkim wycinkiem tego, co rzeczywiście dzieje się w infosferze.
– Musimy mieć świadomość, że te 46 tysięcy zgłoszonych treści to nie jest nawet dziesięć procent tego, co dzieje się w infosferze. Zaryzykuję stwierdzenie, że to może nie być nawet jeden procent – mówi Radosław Nielek, dyrektor NASK.
Raport Ośrodka Analizy Dezinformacji NASK jest więc nie tylko podsumowaniem pracy analityków. To także sygnał ostrzegawczy: jeśli mechanizmy reagowania na dezinformację się nie zmienią, liczba takich treści w polskiej infosferze będzie tylko rosła.
Wyróżnione aktualności
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Powstaje luka w systemie ochrony dzieci w internecie
Materiały, które przedstawiają seksualne wykorzystywanie dzieci (CSAM), od 3 kwietnia będą trudniejsze do wykrycia i zgłoszenia. To złe wieści dla ofiar i ich rodzin. Dlaczego tak się dzieje? Wygasa unijne rozporządzenie, umożliwiające platformom internetowym wykrywanie i zgłaszanie materiałów przedstawiających seksualne wykorzystywanie dzieci (Child Sexual Abuse Material, CSAM). Polska była za przedłużeniem tych przepisów.
Kierunkowy plan tematyczny badań naukowych i prac rozwojowych na 2026 rok
Kierunkowy plan tematyczny badań naukowych przedstawiony przez dyrektora Radosława Nielka, uzyskał w marcu pozytywną opinię Rady Naukowej NASK. Priorytetowymi obszarami badawczymi instytutu są cyberbezpieczeństwo i sztuczna inteligencja.
Wciąż potykamy się o własne sznurówki – Maciej Jan Broniarz o atakach ransomware i o SECURE 2026
Ransomware nie jest ani nowym zagrożeniem, ani nową technologią. A jednak wciąż skutecznie paraliżuje organizacje. Dlaczego? Według Macieja Jana Broniarza – eksperta ds. cyberbezpieczeństwa i wykładowcy Uniwersytetu Warszawskiego – odpowiedź jest prosta, ale jednocześnie też niewygodna. O tym właśnie będzie mówił podczas SECURE 2026, a już teraz opowiedział nam o błędach, które popełniamy od lat.







