Typ_aktualnosc Aktualność
03 Lipca 2025|4 min. czytania

PL-Guard. Cyfrowy strażnik polskiej AI

Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.

Zdjęcie pokazujące miejsce, w którym wpisuje się prompt w ramach korzystania ze sztucznej inteligencji.
Łuna gradientu wychodząca od dołu

Sztuczna inteligencja ułatwia nasze życie i pracę. Ale czy chcemy, żeby pomagała również w popełnianiu przestępstw? Żeby odpowiadała na pytania, jak skonstruować broń, ośmieszyć kogoś czy nakłonić do zrobienia sobie krzywdy? Czy możliwości, jakie daje AI powinny podlegać ograniczeniom? A jeśli tak, to jakim?  

Wyzwanie podjęli eksperci z NASK. I wprowadzili do gry PL-Guard – polski zestaw danych testowych, stworzony po to, by ocenić, czy modele językowe radzą sobie z wykrywaniem niebezpiecznych treści po polsku. 

– Jednym z największych wyzwań współczesnego AI jest luka językowa. Chodzi o to, że większość systemów bezpieczeństwa AI jest projektowana głównie dla języka angielskiego. To oznacza, że użytkownicy mówiący w innych językach mogą być mniej chronieni. Co za tym idzie ten sam model AI może być bezpieczny w języku angielskim, ale generować niebezpieczne treści w innych językach – zauważa Wojciech Kusa, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu działającego w strukturach Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK. 

I  tu rodzi się pytanie – co z polszczyzną, z jej skomplikowaną gramatyką, niuansami i kulturowym lub nawet lokalnym kontekstem?  

Odpowiedzią jest nowy model – HerBERT-PL-Guard. System powstał w ramach projektu NASK. Oparty jest na popularnej architekturze BERT, ale wyspecjalizowany w naszym języku. W testach odporności osiągnął najwyższe wyniki odporności na ataki adwersaryjne, czyli próbki celowo zmodyfikowane w taki sposób, by zmylić model. Badania udowodniły, że modele BERT wypadają w testach lepiej niż większe systemy. Pokazuje to, że w świecie AI nie zawsze „więcej znaczy lepiej”.  

– Wykazaliśmy, że dostrojony model HerBERT, stworzony specjalnie dla języka polskiego, przewyższał w zadaniach bezpieczeństwa znacznie większe i bardziej rozbudowane modele uniwersalne – mówi Aleksandra Krasnodębska, specjalistka NLP i członkini zespołu badawczego pracującego nad PL-Guard bezpieczeństwem dużych modeli językowych. 

HerBERT-PL-Guard nie tylko rozumie polski, ale też wyłapuje subtelne zmiany, którymi niektórzy próbują oszukać system – jak np. zamiana liter w słowach czy subtelne przekształcenia składni, mające na celu obejście filtrów bezpieczeństwa. 

Czym właściwie jest model typu Guard?

Można go porównać do cyfrowego strażnika. Taki model działa jako filtr – analizuje to, co „mówi” duży model językowy i sprawdza, czy przypadkiem nie pojawiło się coś niewłaściwego. Mowa nienawiści? Blokada. Dezinformacja? Również blokada. Treści niestosowne czy niebezpieczne? Guard stoi na straży wszystkich nieodpowiednich informacji. Odgrywa kluczową rolę w zapewnianiu bezpieczeństwa, zgodności z zasadami etycznymi oraz kontroli jakości generowanych odpowiedzi. 

Po co nam to wszystko?

Bo AI ma coraz większy wpływ na nasze życie. Pomaga pisać, wyszukiwać, odpowiadać, zdobywać wiedzę, ulepszać to, co robimy. Ale jeśli sztuczna inteligencja nie przestrzega zasad etycznych i przepisów prawa – może też szkodzić. Właśnie dlatego tak bardzo potrzebne są modele typu Guard.  

Badania NASK pokazują, że lokalne rozwiązania mają sens. Modele trenowane z myślą o konkretnym języku i kulturze są po prostu skuteczniejsze. A to bardzo ważne, jeśli chcemy, by AI wspierała nas w codziennym życiu – bez przekraczania granic. 

Bezpieczna AI? Tak, po polsku!

Model HerBERT-PL-Guard i zestaw danych PL-Guard to konkretne narzędzia, które pomagają tworzyć bardziej odpowiedzialne systemy sztucznej inteligencji – i to w naszym języku. Dzięki nim AI może lepiej rozumieć, co wypada, a czego nie, co jest żartem, a co już mową nienawiści. I co może być informacją, którą ktoś wykorzysta w sposób niebezpieczny. 

To dobra wiadomość dla wszystkich, którzy chcą korzystać z AI z głową. Bo w tej grze nie chodzi tylko o technologię – chodzi też o zaufanie. 

I  właśnie dlatego polska AI potrzebuje własnych Guardów. 

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

DSC04020 (2)
Typ_aktualnosc Aktualność
09 Stycznia 2026|3 min. czytania

Innowacja w polskiej nauce. Współpraca NASK i NAWA

Bezpieczeństwo, rozwój i nowe możliwości dla polskiej nauki. List intencyjny podpisany przez NASK z Narodową Agencją Wymiany Akademickiej NAWA to kolejny krok w stronę tworzenia i udoskonalania polskiej sztucznej inteligencji, która staje się niezbędnym narzędziem w pracy naukowców.

Logotyp NASK
Typ_aktualnosc Aktualność
08 Stycznia 2026|1 min. czytania

Oświadczenie NASK

W związku z informacjami dotyczącymi NASK publikowanymi w przestrzeni publicznej, informujemy.

Panorama Seulu o zmierzchu z rzeką Han i wieżą Lotte World Tower; u góry widoczne logotypy NASK oraz Korea AI Safety Institute (AISI).
Typ_aktualnosc Aktualność
07 Stycznia 2026|9 min. czytania

Polsko-koreańska współpraca nad bezpieczeństwem AI

NASK zyskuje prestiżowego partnera w pracach nad bezpieczną sztuczną inteligencją. Współpraca z Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji (AISI Korea AI Safety Institute) działającym w strukturach Instytutu Badawczego Elektroniki i Telekomunikacji (ETRI) obejmie realizację wspólnych badań, seminariów, programów szkoleniowych dla inżynierów oraz transfer technologii.