Powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK
Sztuczna inteligencja staje się częścią naszej codzienności, a to niesie za sobą zarówno korzyści, jak i wyzwania. W odpowiedzi na rosnące potrzeby zapewnienia bezpieczeństwa i przejrzystości w rozwoju AI, w NASK powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji.


Na czele Ośrodka, który powstał w wyniku przekształcenia Pionu Sztucznej Inteligencji, stanął dr hab. inż. Szymon Łukasik, prof. AGH z Wydziału Fizyki i Informatyki Stosowanej. Zmiana jest podyktowana potrzebą skupienia się konkretnych zagadnieniach związanych z rozwojem AI.
Główne zadania jakie stoją przed nami to rozwój i wprowadzanie nowych technologii sztucznej inteligencji. Ze szczególną uwagą będziemy skupiać się na uwzględnieniu metod bezpiecznych, transparentnych i wyjaśnialnych w kluczowych obszarach, takich jak administracja publiczna, bezpieczeństwo sieci oraz ochrona cyberprzestrzeni. Ośrodek ma również za zadanie edukować i wspierać społeczeństwo w świadomym korzystaniu z nowoczesnych technologii AI – mówi Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.
Sztuczna inteligencja na tapet
Naukowcy z nowego Ośrodka skupiają się na prowadzeniu innowacyjnych badań w obszarze AI, z naciskiem na cyberbezpieczeństwo, które jest dla NASK kluczowe. To droga, która będzie prowadzić do odpowiedzialnego zastosowania technologii sztucznej inteligencji w administracji, czy bezpieczeństwie sieci.
W strukturze Ośrodka znajduje się szereg specjalistycznych zakładów badawczych, w tym:
- Zakład Analiz Audiowizualnych i Systemów Biometrycznych, który prowadzi badania nad biometryczną weryfikacją tożsamości oraz przetwarzaniem informacji z wykorzystaniem uczenia głębokiego.
- Zakład Inżynierii Lingwistycznej i Analizy Tekstu, zajmujący się przetwarzaniem języka naturalnego i analizą tekstu, w tym wykrywaniem nielegalnych lub wrażliwych treści.
- Zakład Nauki o Danych, który rozwija metody analizy dużych zbiorów danych, w tym związanych z cyberbezpieczeństwem oraz zwalczaniem dezinformacji.
- Zakład Zastosowań Sztucznej Inteligencji w Medycynie i Analizie Danych Wrażliwych, którego celem jest rozwój systemów AI wspomagających diagnostykę i analizę danych medycznych.
- Niebawem prace rozpocznie także Zakład Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji, który będzie koncentrował się na badaniach nad bezpieczeństwem i wyjaśnialnością modeli AI, a także wspiera krajowe i międzynarodowe inicjatywy w tym zakresie. Obecnie trwa budowa zespołu.
NASK liderem i partnerem w rozwoju AI
Naukowcy z NASK wiedzą jak cenna jest współpraca, wymiana wiedzy i doświadczeń. Dlatego Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji będzie stwarzał możliwości realizacji ambitnych projektów badawczych i współpracował z innymi instytucjami naukowymi i badawczo-rozwojowymi, takimi jak np. Akademia Górniczo-Hutnicza w Krakowie, Politechnika Warszawska czy Instytut IDEAS. Ośrodek będzie też zaangażowany w popularyzację wiedzy na temat sztucznej inteligencji, prowadząc liczne inicjatywy edukacyjne i społeczne.
NASK-PIB to instytucja, której misją jest rozwój i bezpieczeństwo sieci teleinformatycznych w Polsce. Instytut odgrywa kluczową rolę w kształtowaniu polityk związanych z bezpieczeństwem cyfrowym i rozwojem społeczeństwa informacyjnego. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji stanowi integralną część tych działań, odpowiadając na współczesne wyzwania związane z rosnącą obecnością technologii AI w życiu codziennym.
Rozwój sztucznej inteligencji to nie tylko postęp technologiczny, ale także ogromna odpowiedzialność. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK jest odpowiedzią na kluczowe wyzwania naszych czasów związane z rozwojem AI. Naszą misją jest nie tylko tworzenie innowacyjnych technologii, ale także zapewnienie, że będą one bezpieczne, przejrzyste i zrozumiałe dla wszystkich. Chcemy wspierać świadome i odpowiedzialne korzystanie z potencjału sztucznej inteligencji
– zaznacza Radosław Nielek, dyrektor NASK
Rola NASK w cyberbezpiecznym AI
NASK podejmuje szereg inicjatyw, które zapewniają bezpieczeństwo i ochronę internetu i jego użytkowników przed różnymi cyberzagrożeniami. Prowadzi projekty dotyczące bezpieczeństwa AI. Instytut bierze udział w rozwijaniu – w ramach konsorcjum skupiającym kilka uczelni i instytutów badawczych – Polskiego Dużego Modelu Językowego (PLLuM), odpowiadając głównie za aspekty bezpieczeństwa tworzonych modeli. Czerpiąc z własnego know-how w zakresie wykrywania szkodliwych treści NASK prowadzi także prace nad analizą i detekcją materiałów syntetycznych generowanych z użyciem technik sztucznej inteligencji (tzw. deep fake). Analitycy Instytutu skupiają się w tym obszarze na perspektywie wielomodalnej (tj. równoczesnej analizie dźwięku, wideo i tekstu). Poza pracami badawczymi NASK dba o rozwój młodych talentów – staramy się być przyjaznym miejscem dla doktorantów, początkujących naukowców i inżynierów, którzy stawiają pierwsze kroki w dziedzinie sztucznej inteligencji i AI Safety.
Wyróżnione aktualności
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Technologia sama nas nie obroni. SECURE 2026
Ludzie atakują. Ludzie bronią. Ludzie popełniają błędy. To wreszcie ludzie odzyskują to, co przejęli hakerzy. Technologia jest tylko narzędziem. Właśnie o tym był SECURE 2026 – najstarsza w Polsce konferencja o cyberbezpieczeństwie. Ponad 600 uczestników i przeszło 30 prelegentów, dyskutowało na blisko 20 tematów. Wszystko, by wysnuć jeden wniosek: cyberbezpieczeństwo zaczyna się i kończy na człowieku.
Prawie 2 tys. zgłoszeń każdego dnia. Raport CERT Polska za 2025 rok
Aż o 152 proc. wzrosła rok do roku liczba zarejestrowanych incydentów cyberbezpieczeństwa. To trend, od którego nie ma już odwrotu – wraz z rozwojem technologii rośnie skala cyberataków. Jest też druga strona medalu – internauci są coraz bardziej świadomi zagrożeń, które czyhają na nich w sieci. To wnioski płynące z „Raportu rocznego z działalności zespołu CERT Polska w 2025 roku”. Swoją premierę miał podczas konferencji SECURE 2026.
AI w cyberbezpieczeństwie to miecz obosieczny – Marcin Dudek o SECURE 2026
Narzędzia to nie wszystko. Marcin Dudek, szef CERT Polska, ekspert od zagrożeń APT i bezpieczeństwa systemów przemysłowych, uważa, że największym problemem branży nie jest brak technologii, ale brak kompetencji, by z niej korzystać. Przed SECURE 2026 opowiedział nam, co dziś napędza cyberzagrożenia i dlaczego AI zmienia zasady gry.







