PL-Guard. Cyfrowy strażnik polskiej AI
Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.


Sztuczna inteligencja ułatwia nasze życie i pracę. Ale czy chcemy, żeby pomagała również w popełnianiu przestępstw? Żeby odpowiadała na pytania, jak skonstruować broń, ośmieszyć kogoś czy nakłonić do zrobienia sobie krzywdy? Czy możliwości, jakie daje AI powinny podlegać ograniczeniom? A jeśli tak, to jakim?
Wyzwanie podjęli eksperci z NASK. I wprowadzili do gry PL-Guard – polski zestaw danych testowych, stworzony po to, by ocenić, czy modele językowe radzą sobie z wykrywaniem niebezpiecznych treści po polsku.
– Jednym z największych wyzwań współczesnego AI jest luka językowa. Chodzi o to, że większość systemów bezpieczeństwa AI jest projektowana głównie dla języka angielskiego. To oznacza, że użytkownicy mówiący w innych językach mogą być mniej chronieni. Co za tym idzie ten sam model AI może być bezpieczny w języku angielskim, ale generować niebezpieczne treści w innych językach – zauważa Wojciech Kusa, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu działającego w strukturach Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK.
I tu rodzi się pytanie – co z polszczyzną, z jej skomplikowaną gramatyką, niuansami i kulturowym lub nawet lokalnym kontekstem?
Odpowiedzią jest nowy model – HerBERT-PL-Guard. System powstał w ramach projektu NASK. Oparty jest na popularnej architekturze BERT, ale wyspecjalizowany w naszym języku. W testach odporności osiągnął najwyższe wyniki odporności na ataki adwersaryjne, czyli próbki celowo zmodyfikowane w taki sposób, by zmylić model. Badania udowodniły, że modele BERT wypadają w testach lepiej niż większe systemy. Pokazuje to, że w świecie AI nie zawsze „więcej znaczy lepiej”.
– Wykazaliśmy, że dostrojony model HerBERT, stworzony specjalnie dla języka polskiego, przewyższał w zadaniach bezpieczeństwa znacznie większe i bardziej rozbudowane modele uniwersalne – mówi Aleksandra Krasnodębska, specjalistka NLP i członkini zespołu badawczego pracującego nad PL-Guard bezpieczeństwem dużych modeli językowych.
HerBERT-PL-Guard nie tylko rozumie polski, ale też wyłapuje subtelne zmiany, którymi niektórzy próbują oszukać system – jak np. zamiana liter w słowach czy subtelne przekształcenia składni, mające na celu obejście filtrów bezpieczeństwa.
Czym właściwie jest model typu Guard?
Można go porównać do cyfrowego strażnika. Taki model działa jako filtr – analizuje to, co „mówi” duży model językowy i sprawdza, czy przypadkiem nie pojawiło się coś niewłaściwego. Mowa nienawiści? Blokada. Dezinformacja? Również blokada. Treści niestosowne czy niebezpieczne? Guard stoi na straży wszystkich nieodpowiednich informacji. Odgrywa kluczową rolę w zapewnianiu bezpieczeństwa, zgodności z zasadami etycznymi oraz kontroli jakości generowanych odpowiedzi.
Po co nam to wszystko?
Bo AI ma coraz większy wpływ na nasze życie. Pomaga pisać, wyszukiwać, odpowiadać, zdobywać wiedzę, ulepszać to, co robimy. Ale jeśli sztuczna inteligencja nie przestrzega zasad etycznych i przepisów prawa – może też szkodzić. Właśnie dlatego tak bardzo potrzebne są modele typu Guard.
Badania NASK pokazują, że lokalne rozwiązania mają sens. Modele trenowane z myślą o konkretnym języku i kulturze są po prostu skuteczniejsze. A to bardzo ważne, jeśli chcemy, by AI wspierała nas w codziennym życiu – bez przekraczania granic.
Bezpieczna AI? Tak, po polsku!
Model HerBERT-PL-Guard i zestaw danych PL-Guard to konkretne narzędzia, które pomagają tworzyć bardziej odpowiedzialne systemy sztucznej inteligencji – i to w naszym języku. Dzięki nim AI może lepiej rozumieć, co wypada, a czego nie, co jest żartem, a co już mową nienawiści. I co może być informacją, którą ktoś wykorzysta w sposób niebezpieczny.
To dobra wiadomość dla wszystkich, którzy chcą korzystać z AI z głową. Bo w tej grze nie chodzi tylko o technologię – chodzi też o zaufanie.
I właśnie dlatego polska AI potrzebuje własnych Guardów.
Wyróżnione aktualności
Fakty, nie mity. NASK i UMB wspólnie przeciw dezinformacji medycznej
NASK podpisuje kolejne porozumienie przeciwko dezinformacji medycznej i mówi stanowcze „nie” fake-newsom na temat zdrowia. Po Warszawskim Uniwersytecie Medycznym, czas na Uniwersytet Medyczny w Białymstoku.
Szkoły coraz bliżej technologicznej rewolucji. Znamy oferty na szkolne laboratoria przyszłości!
Edukacyjna rewolucja nabiera tempa. Tysiące szkół w całej Polsce już wkrótce zyskają nowoczesne pracownie, w których uczniowie będą mogli rozwijać cyfrowe umiejętności i poznawać technologie przyszłości. 30 października w NASK otwarto oferty firm, które chcą wyposażyć szkoły w laboratoria sztucznej inteligencji i STEM – miejsca, gdzie nauka spotka się z technologią.
Zostań internetowym detektywem i sprawdź się w zawodach OSINT CTF
Internetowe śledztwa, szukanie tropów i łączenie kropek – brzmi znajomo? Jeśli lubisz rozwiązywać zagadki ukryte w labiryncie danych, zawody OSINT CTF NASK 2025 to miejsce, w którym poczujesz się jak w domu. Właśnie rusza rejestracja uczestników.
Kongres OSE 2025 – zarejestruj się!
Jak promować język szacunku w cyfrowym świecie? W jaki sposób budować w szkole przestrzeń dla dialogu i różnicy zdań? Na te i inne pytania odpowiedzą eksperci podczas Kongresu OSE, który jest organizowany przez NASK. Wydarzenie odbędzie się 2 grudnia. Właśnie ruszyła rejestracja uczestników. Na zgłoszenia czekamy do 24 listopada.
Najnowsze aktualności
Jak wychować AI? Poznaj PLLuM-Align
PLLuM-Align to pierwszy w Polsce otwarty zbiór danych z przykładami ludzkich preferencji. Służy do ulepszania i dostrajania modeli językowych. Zawiera ponad 4 tys. ręcznie ocenionych przykładów, które pomagają tworzyć bezpieczne, pomocne i zgodne z polskim kontekstem odpowiedzi.
Polska w centrum innowacji - Web Summit 2025
– Polska staje się symbolem nowej Europy – ambitnej, zmotywowanej i zorganizowanej. Gdy część Europy Zachodniej zwalnia, Polska i Europa Wschodnia nabierają rozpędu – mówił w Lizbonie Paddy Cosgrave, CEO Web Summit.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.







