Unia Europejska
Typ_aktualnosc Aktualność
03 Lipca 2025|4 min. czytania

PL-Guard. Cyfrowy strażnik polskiej AI

Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.

Zdjęcie pokazujące miejsce, w którym wpisuje się prompt w ramach korzystania ze sztucznej inteligencji.
Łuna gradientu wychodząca od dołu

Sztuczna inteligencja ułatwia nasze życie i pracę. Ale czy chcemy, żeby pomagała również w popełnianiu przestępstw? Żeby odpowiadała na pytania, jak skonstruować broń, ośmieszyć kogoś czy nakłonić do zrobienia sobie krzywdy? Czy możliwości, jakie daje AI powinny podlegać ograniczeniom? A jeśli tak, to jakim?  

Wyzwanie podjęli eksperci z NASK. I wprowadzili do gry PL-Guard – polski zestaw danych testowych, stworzony po to, by ocenić, czy modele językowe radzą sobie z wykrywaniem niebezpiecznych treści po polsku. 

– Jednym z największych wyzwań współczesnego AI jest luka językowa. Chodzi o to, że większość systemów bezpieczeństwa AI jest projektowana głównie dla języka angielskiego. To oznacza, że użytkownicy mówiący w innych językach mogą być mniej chronieni. Co za tym idzie ten sam model AI może być bezpieczny w języku angielskim, ale generować niebezpieczne treści w innych językach – zauważa Wojciech Kusa, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu działającego w strukturach Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK. 

I  tu rodzi się pytanie – co z polszczyzną, z jej skomplikowaną gramatyką, niuansami i kulturowym lub nawet lokalnym kontekstem?  

Odpowiedzią jest nowy model – HerBERT-PL-Guard. System powstał w ramach projektu NASK. Oparty jest na popularnej architekturze BERT, ale wyspecjalizowany w naszym języku. W testach odporności osiągnął najwyższe wyniki odporności na ataki adwersaryjne, czyli próbki celowo zmodyfikowane w taki sposób, by zmylić model. Badania udowodniły, że modele BERT wypadają w testach lepiej niż większe systemy. Pokazuje to, że w świecie AI nie zawsze „więcej znaczy lepiej”.  

– Wykazaliśmy, że dostrojony model HerBERT, stworzony specjalnie dla języka polskiego, przewyższał w zadaniach bezpieczeństwa znacznie większe i bardziej rozbudowane modele uniwersalne – mówi Aleksandra Krasnodębska, specjalistka NLP i członkini zespołu badawczego pracującego nad PL-Guard bezpieczeństwem dużych modeli językowych. 

HerBERT-PL-Guard nie tylko rozumie polski, ale też wyłapuje subtelne zmiany, którymi niektórzy próbują oszukać system – jak np. zamiana liter w słowach czy subtelne przekształcenia składni, mające na celu obejście filtrów bezpieczeństwa. 

Czym właściwie jest model typu Guard?

Można go porównać do cyfrowego strażnika. Taki model działa jako filtr – analizuje to, co „mówi” duży model językowy i sprawdza, czy przypadkiem nie pojawiło się coś niewłaściwego. Mowa nienawiści? Blokada. Dezinformacja? Również blokada. Treści niestosowne czy niebezpieczne? Guard stoi na straży wszystkich nieodpowiednich informacji. Odgrywa kluczową rolę w zapewnianiu bezpieczeństwa, zgodności z zasadami etycznymi oraz kontroli jakości generowanych odpowiedzi. 

Po co nam to wszystko?

Bo AI ma coraz większy wpływ na nasze życie. Pomaga pisać, wyszukiwać, odpowiadać, zdobywać wiedzę, ulepszać to, co robimy. Ale jeśli sztuczna inteligencja nie przestrzega zasad etycznych i przepisów prawa – może też szkodzić. Właśnie dlatego tak bardzo potrzebne są modele typu Guard.  

Badania NASK pokazują, że lokalne rozwiązania mają sens. Modele trenowane z myślą o konkretnym języku i kulturze są po prostu skuteczniejsze. A to bardzo ważne, jeśli chcemy, by AI wspierała nas w codziennym życiu – bez przekraczania granic. 

Bezpieczna AI? Tak, po polsku!

Model HerBERT-PL-Guard i zestaw danych PL-Guard to konkretne narzędzia, które pomagają tworzyć bardziej odpowiedzialne systemy sztucznej inteligencji – i to w naszym języku. Dzięki nim AI może lepiej rozumieć, co wypada, a czego nie, co jest żartem, a co już mową nienawiści. I co może być informacją, którą ktoś wykorzysta w sposób niebezpieczny. 

To dobra wiadomość dla wszystkich, którzy chcą korzystać z AI z głową. Bo w tej grze nie chodzi tylko o technologię – chodzi też o zaufanie. 

I  właśnie dlatego polska AI potrzebuje własnych Guardów. 

Udostępnij ten post

Wyróżnione aktualności

Paweł Kostkiewicz
Typ_aktualnosc Aktualność
02 Kwietnia 2026|7 min. czytania

Razem dla bezpieczeństwa sieci 5G – warsztaty 5G TACTIC w NASK

5G ma napędzać transport, przemysł, administrację, a za chwilę – rzeczy, których jeszcze nawet nie nazywamy. Problem w tym, że im więcej od tej technologii zależy, tym mniej miejsca zostaje na pomyłki.

Grafika z kołami mającymi symbolizować nowoczesne przesyłanie informacji.
Typ_aktualnosc Aktualność
27 Marca 2026|4 min. czytania

Transgraniczna autostrada danych. Ruszył projekt QKD Germany‑Poland‑Czechia

Czy istnieje rozmowa, której nie da się podsłuchać albo informacje, których nie da się przechwycić? W niedalekiej przyszłości powstanie pierwsza tak rozbudowana sieć kwantowa w Europie Środkowej, która wykorzysta technologię generowania i dystrybucji kluczy kryptograficznych. To oznacza bezpieczne przesyłanie informacji międzynarodowych. NASK jest partnerem tej inicjatywy.

Dyrektor i Minister oglądają komputer
Typ_aktualnosc Aktualność
23 Marca 2026|7 min. czytania

Moc obliczeniowa dla polskiej AI. Pierwszy superkomputer NASK wystartował

NASK uruchomił nowy klaster do obliczeń AI. Wart 30 milionów złotych projekt to inwestycja w zdolność prowadzenia badań, tworzenia własnych narzędzi i rozwijania technologii, które odpowiadają na konkretne potrzeby państwa i obywateli.

Trzech mężczyzn w garniturach ściska dłonie podczas wydarzenia z okazji 30-lecia CERT Polska; w tle widoczna grafika z napisem „30 lat CERT Polska” oraz logotypy NASK i Ministerstwa Cyfryzacji.
Typ_aktualnosc Aktualność
11 Marca 2026|8 min. czytania

Cyberbezpiecznie od 30 lat. CERT Polska

Od 12 incydentów w 1996 roku, po przeszło 260 tysięcy w ubiegłym. Te liczby najlepiej pokazują, jak diametralnie zmieniła się skala cyberataków oraz rola CERT Polska w podnoszeniu świadomości o cyberbezpieczeństwie. Pierwszy w Polsce zespół reagowania na zagrożenia w sieci, który powstał w NASK, obchodzi właśnie 30 urodziny.

Informacje

Najnowsze aktualności

DSC01099
Typ_aktualnosc Aktualność
27 Kwietnia 2026|5 min. czytania

Badania, nie spiski. Raport NASK o tym, kto wierzy w teorie spiskowe

Wykształcony, młody, z dużego miasta – wydaje się odporny na teorie spiskowe. Pozory mylą, a rzeczywistość jest jednak bardziej złożona. Najnowszy raport NASK „Paradoks spiskowy” pokazuje, co naprawdę decyduje o podatności na dezinformację.

Debata EKG Nielek
Typ_aktualnosc Aktualność
23 Kwietnia 2026|8 min. czytania

Cyberbezpieczeństwo i gospodarka danych. NASK na EKG

Nie da się mówić o rozwoju, danych i sztucznej inteligencji bez równoległej rozmowy o bezpieczeństwie – to teza, którą wielokrotnie powtarzano podczas Europejskiego Kongresu Gospodarczego w Katowicach. I nie jest to teoria – to rzeczywistość, która już teraz wpływa na działanie instytucji, firm i codzienne decyzje użytkowników.

Haczyk wędkarski zaczepiony o kartę płatniczą leżącą na klawiaturze komputera – symbol phishingu i oszustw finansowych.
Typ_aktualnosc Aktualność
23 Kwietnia 2026|7 min. czytania

Nie technologia, a emocje. Raport o oszustwach w polskim internecie

Phishing, fałszywe inwestycje i podrobione witryny sklepów internetowych to najczęstsze zagrożenia, które czyhają na użytkowników polskiego internetu. Jak wynika z ostatniego raportu CERT Polska – zespołu, działającego w ramach NASK – aż 97 proc. incydentów odnotowanych przez zespół dotyczyło różnego rodzaju oszustw online.