Typ_aktualnosc Aktualność
03 Lipca 2025|4 min. czytania

PL-Guard. Cyfrowy strażnik polskiej AI

Dezinformacja? Mowa nienawiści? Niebezpieczne porady? To realne ryzyko, które powstaje, gdy używamy sztucznej inteligencji. A konkretnie - dużych modeli językowych, takich jak ChatGPT. Zwłaszcza, gdy działają bez odpowiednich zabezpieczeń. Dlatego eksperci z NASK opracowali model PL-Guard. Bo – jak się okazuje – AI potrzebuje też strażnika.

Zdjęcie pokazujące miejsce, w którym wpisuje się prompt w ramach korzystania ze sztucznej inteligencji.
Łuna gradientu wychodząca od dołu

Sztuczna inteligencja ułatwia nasze życie i pracę. Ale czy chcemy, żeby pomagała również w popełnianiu przestępstw? Żeby odpowiadała na pytania, jak skonstruować broń, ośmieszyć kogoś czy nakłonić do zrobienia sobie krzywdy? Czy możliwości, jakie daje AI powinny podlegać ograniczeniom? A jeśli tak, to jakim?  

Wyzwanie podjęli eksperci z NASK. I wprowadzili do gry PL-Guard – polski zestaw danych testowych, stworzony po to, by ocenić, czy modele językowe radzą sobie z wykrywaniem niebezpiecznych treści po polsku. 

– Jednym z największych wyzwań współczesnego AI jest luka językowa. Chodzi o to, że większość systemów bezpieczeństwa AI jest projektowana głównie dla języka angielskiego. To oznacza, że użytkownicy mówiący w innych językach mogą być mniej chronieni. Co za tym idzie ten sam model AI może być bezpieczny w języku angielskim, ale generować niebezpieczne treści w innych językach – zauważa Wojciech Kusa, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu działającego w strukturach Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK. 

I  tu rodzi się pytanie – co z polszczyzną, z jej skomplikowaną gramatyką, niuansami i kulturowym lub nawet lokalnym kontekstem?  

Odpowiedzią jest nowy model – HerBERT-PL-Guard. System powstał w ramach projektu NASK. Oparty jest na popularnej architekturze BERT, ale wyspecjalizowany w naszym języku. W testach odporności osiągnął najwyższe wyniki odporności na ataki adwersaryjne, czyli próbki celowo zmodyfikowane w taki sposób, by zmylić model. Badania udowodniły, że modele BERT wypadają w testach lepiej niż większe systemy. Pokazuje to, że w świecie AI nie zawsze „więcej znaczy lepiej”.  

– Wykazaliśmy, że dostrojony model HerBERT, stworzony specjalnie dla języka polskiego, przewyższał w zadaniach bezpieczeństwa znacznie większe i bardziej rozbudowane modele uniwersalne – mówi Aleksandra Krasnodębska, specjalistka NLP i członkini zespołu badawczego pracującego nad PL-Guard bezpieczeństwem dużych modeli językowych. 

HerBERT-PL-Guard nie tylko rozumie polski, ale też wyłapuje subtelne zmiany, którymi niektórzy próbują oszukać system – jak np. zamiana liter w słowach czy subtelne przekształcenia składni, mające na celu obejście filtrów bezpieczeństwa. 

Czym właściwie jest model typu Guard?

Można go porównać do cyfrowego strażnika. Taki model działa jako filtr – analizuje to, co „mówi” duży model językowy i sprawdza, czy przypadkiem nie pojawiło się coś niewłaściwego. Mowa nienawiści? Blokada. Dezinformacja? Również blokada. Treści niestosowne czy niebezpieczne? Guard stoi na straży wszystkich nieodpowiednich informacji. Odgrywa kluczową rolę w zapewnianiu bezpieczeństwa, zgodności z zasadami etycznymi oraz kontroli jakości generowanych odpowiedzi. 

Po co nam to wszystko?

Bo AI ma coraz większy wpływ na nasze życie. Pomaga pisać, wyszukiwać, odpowiadać, zdobywać wiedzę, ulepszać to, co robimy. Ale jeśli sztuczna inteligencja nie przestrzega zasad etycznych i przepisów prawa – może też szkodzić. Właśnie dlatego tak bardzo potrzebne są modele typu Guard.  

Badania NASK pokazują, że lokalne rozwiązania mają sens. Modele trenowane z myślą o konkretnym języku i kulturze są po prostu skuteczniejsze. A to bardzo ważne, jeśli chcemy, by AI wspierała nas w codziennym życiu – bez przekraczania granic. 

Bezpieczna AI? Tak, po polsku!

Model HerBERT-PL-Guard i zestaw danych PL-Guard to konkretne narzędzia, które pomagają tworzyć bardziej odpowiedzialne systemy sztucznej inteligencji – i to w naszym języku. Dzięki nim AI może lepiej rozumieć, co wypada, a czego nie, co jest żartem, a co już mową nienawiści. I co może być informacją, którą ktoś wykorzysta w sposób niebezpieczny. 

To dobra wiadomość dla wszystkich, którzy chcą korzystać z AI z głową. Bo w tej grze nie chodzi tylko o technologię – chodzi też o zaufanie. 

I  właśnie dlatego polska AI potrzebuje własnych Guardów. 

Udostępnij ten post

Wyróżnione aktualności

Dwóch mężczyzn w garniturach siedzi przy stole i przegląda dokumenty, za nimi stoją flagi Polski i Unii Europejskiej.
Typ_aktualnosc Aktualność
31 Października 2025|4 min. czytania

Fakty, nie mity. NASK i UMB wspólnie przeciw dezinformacji medycznej

NASK podpisuje kolejne porozumienie przeciwko dezinformacji medycznej i mówi stanowcze „nie” fake-newsom na temat zdrowia. Po Warszawskim Uniwersytecie Medycznym, czas na Uniwersytet Medyczny w Białymstoku.

Otwarcie ofert na pracownie AI i STEM
Typ_aktualnosc Aktualność
30 Października 2025|2 min. czytania

Szkoły coraz bliżej technologicznej rewolucji. Znamy oferty na szkolne laboratoria przyszłości!

Edukacyjna rewolucja nabiera tempa. Tysiące szkół w całej Polsce już wkrótce zyskają nowoczesne pracownie, w których uczniowie będą mogli rozwijać cyfrowe umiejętności i poznawać technologie przyszłości. 30 października w NASK otwarto oferty firm, które chcą wyposażyć szkoły w laboratoria sztucznej inteligencji i STEM – miejsca, gdzie nauka spotka się z technologią.

Grafika promująca Zawody OSINT CTF organizowane przez NASK, z datą 24–25 listopada 2025 i turkusową flagą z logo OSINT CTF na fioletowym tle.
Typ_aktualnosc Aktualność
31 Października 2025|3 min. czytania

Zostań internetowym detektywem i sprawdź się w zawodach OSINT CTF

Internetowe śledztwa, szukanie tropów i łączenie kropek – brzmi znajomo? Jeśli lubisz rozwiązywać zagadki ukryte w labiryncie danych, zawody OSINT CTF NASK 2025 to miejsce, w którym poczujesz się jak w domu. Właśnie rusza rejestracja uczestników.

Grafika promująca Kongres OSE 2025 organizowany przez NASK. Na plakacie widnieje hasło wydarzenia: „Szacunek i odporność społeczna – edukacja wobec hejtu, AI i wyzwań przyszłości”. W tle widoczny jest nowoczesny, niebieski motyw graficzny symbolizujący technologię i edukację cyfrową. Na dole umieszczono informacje o dacie wydarzenia – 2 grudnia 2024 roku – oraz link do strony rejestracyjnej: kongres.ose.gov.pl.
Typ_aktualnosc Aktualność
03 Listopada 2025|4 min. czytania

Kongres OSE 2025 – zarejestruj się!

Jak promować język szacunku w cyfrowym świecie? W jaki sposób budować w szkole przestrzeń dla dialogu i różnicy zdań? Na te i inne pytania odpowiedzą eksperci podczas Kongresu OSE, który jest organizowany przez NASK. Wydarzenie odbędzie się 2 grudnia. Właśnie ruszyła rejestracja uczestników. Na zgłoszenia czekamy do 24 listopada.

Informacje

Najnowsze aktualności

HackNation Bydgoszcz 2025
Typ_aktualnosc Aktualność
08 Grudnia 2025|9 min. czytania

Hakerzy w służbie publicznej. Co pokazał pierwszy Narodowy Hackathon?

Niemal półtora tysiąca hakerów, 370 zespołów i kilkanaście zadań przygotowanych przez ministerstwa, instytucje i miasta – tak wyglądał HackNation 2025, pierwszy Narodowy Hackathon dla Administracji Publicznej, który 6–7 grudnia zamienił Bydgoszcz w centrum polskiej innowacji.

Mężczyzna w garniturze przemawia do publiczności, trzymając mikrofon. W tle widać flagi Polski i Unii Europejskiej oraz ekran z grafiką przedstawiającą uśmiechniętych młodych ludzi i kobietę w średnim wieku.
Typ_aktualnosc Aktualność
08 Grudnia 2025|4 min. czytania

Konkurs „Broń się w necie” rozstrzygnięty. NASK wręcza nagrody

Budowanie odporności młodych na dezinformację, hejt i inne zagrożenia online to dziś podstawa cyfrowej edukacji młodego pokolenia. W Kancelarii Prezesa Rady Ministrów 8 grudnia odbyła się gala finałowa podsumowująca konkurs „Broń się w necie”, projektu, który angażował nauczycieli, uczniów, a nawet całe społeczności szkolne.

Krzysztof Gawkowski na scenie podczas konferencji EZD RP.
Typ_aktualnosc Aktualność
08 Grudnia 2025|6 min. czytania

Jak wdrożyć EZD RP i... nie zwariować?

– W przyszłym roku do systemu elektronicznego zarządzania dokumentacją włączone zostaną moduły sztucznej inteligencji, które zwiększą jego funkcjonalność – taką deklarację ze sceny Teatru Polskiego złożył dyrektor NASK Radosław Nielek podczas konferencji poświęconej EZD RP. – Nowa infrastruktura budowana jest we współpracy z COI. Już w pierwszym kwartale 2026 r. zaproszeni użytkownicy będą mogli ją testować – dodał.