Unia Europejska
Typ_aktualnosc Aktualność
19 Grudnia 2024|8 min. czytania

Wizja rozwoju AI w Sejmie. Na konferencji NASK

Bliżej nam do "inteligentnego asystenta" dla urzędników i obywateli niż do spójnych regulacji prawnych (w Polsce i Europie) dotyczących AI. A regulacje są pilne i konieczne, bo rozwój tej technologii rodzi wiele wątpliwości. O przemyślanym i bezpiecznym rozwoju AI w Polsce rozmawiali uczestnicy konferencji, zorganizowanej w Sejmie przez instytut badawczy NASK.

Na zdjęciu znajduje się konferencja odbywająca się w Sejmie RP. W pierwszym rzędzie uczestników siedzą osoby w eleganckich garniturach, w tym politycy oraz zaproszeni goście. Sala jest nowoczesna, z dużymi oknami i drewnianym sufitem.
Łuna gradientu wychodząca od dołu

Konferencja „AI 360. Regulacje, innowacje, współpraca” to spotkanie zorganizowane 16 grudnia przez NASK, we współpracy z sejmową Komisją Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Uniwersytetem Warszawskim. Dyskutowano o polskiej i europejskiej perspektywie rozwoju sztucznej inteligencji, ochronie dzieci i młodzieży w obliczu zagrożeń, jakie niesie nowa technologia, rozwiązaniach dla biznesu, administracji państwowej i współpracy międzynarodowej. 

Polska może być liderem rozwoju AI w regionie. Potencjał naszego kraju jest ogromny, ponieważ już teraz, między innymi dzięki współtworzonej przez NASK aplikacji mObywatel, wyznaczamy w Europie trendy dotyczące cyfryzacji państwa. Nie tylko Polska, ale cała Europa stoi jednak wobec wyzwania, jakim jest przygotowanie prawa, które ochroni Europejczyków przed zagrożeniami i jednocześnie nie zahamuje rozwoju cyfrowej rewolucji w UE.  

– Sztuczna inteligencja i algorytmy będą z nami w każdej chwili życia – w edukacji, polityce i w administracji. W każdym miejscu już dzisiaj spotykamy się z AI, więc prawo, które będzie mówiło o przejrzystości algorytmów i sztucznej inteligencji, jest naprawdę dla nas bardzo istotne – podkreślał Grzegorz Napieralski, przewodniczący podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów. 

Na potrzebę debaty ponad podziałami i współpracy między różnymi grupami interesów zwracał uwagę wicemarszałek Sejmu Krzysztof Bosak: – Wbrew temu, co się mówi, jest możliwa współpraca ponadpolityczna. Jest bardzo dużo miejsca na normalną dyskusję w Sejmie – twierdził.  

Na zdjęciu uwieczniono konferencję odbywającą się w Sejmie RP. W pierwszym rzędzie siedzą Bartłomiej Pejo, Krzysztof Bosak oraz Grzegorz Napieralski. Ubrani są w formalne stroje, trzymają notatki. W tle widać innych uczestników konferencji, a także ekran z fragmentem napisu wskazującego temat spotkania. Sala ma nowoczesny wystrój z dużymi oknami zapewniającymi dostęp do naturalnego światła.

Dzieci, ich rodzice i wyzwania, jakie stawia przed nimi AI  

– Odbierałam ostatnio dzieci mojej sąsiadki ze świetlicy. Oglądały krótkie filmiki na platformie społecznościowej. Usłyszałam bardzo syntetyczny głos z wszystkimi błędami, które obserwuję przy analizie takich materiałów. Zapytałam, czy są świadomi tego, że oglądają coś, co nie zostało stworzone przez człowieka, że tam nie występują prawdziwe osoby, że ten głos jest sztuczny. Oni jednoznacznie odpowiedzieli: “Nie, to są prawdziwe filmiki”. Kilkuletni chłopcy oglądali materiały propagujące buntownicze nastawienie do rodziców, którzy zakazują np. grać w gry komputerowe” – rozpoczęła dyskusję dr Ewelina Bartuzi-Trokielewicz, która w NASK kieruje Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w nowo powołanym Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji. 

Wyzwania, jakie rozwój technologii AI stawia przed rodzicami i wszystkimi dorosłymi, którzy tworzą w Polsce prawo i zajmują się ochroną małoletnich w sieci, były istotną częścią konferencji.  

– Taco Hemingway w jednym ze swoich tekstów opisuje, skąd się biorą wzorce opisujące życie seksualne młodzieży, co wychowuje polską młodzież w kontekście ich przyszłych wydarzeń dotyczących związków, dotyczących relacji, tego, jak widzą seks, jak widzą tego typu zachowania, jak widzą relacje pomiędzy partnerami, partnerkami. Dzisiaj każde dziecko uzyskuje dostęp do treści pornograficznych zaznaczając jeden krzyżyk na jednym checkboxie. Mam 18 lat, wchodzę dalej. W ten sposób dostawcy takich treści zdejmują z siebie jakąkolwiek odpowiedzialność – zauważał Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji. 

Na zdjęciu uwieczniono Michała Gramatykę podczas wystąpienia na konferencji w Sejmie RP. Mężczyzna ubrany w elegancki garnitur, trzyma mikrofon, przemawiając do uczestników. W tle widoczne są flagi Polski i Unii Europejskiej oraz godło Polski na ścianie, co podkreśla oficjalny charakter wydarzenia. Na pierwszym planie widać fragment publiczności, w tym osobę robiącą zdjęcie telefonem.

Wiceminister Gramatyka pracuje nad nową ustawą o ochronie małoletnich przed szkodliwymi treściami w internecie. Dużym wsparciem w przygotowaniu takich przepisów jest wiedza, którą posiada Martyna Różycka kierująca w NASK zespołem Dyżurnet.pl. 

Patostreaming, nudifying i problemy prawne 

– Algorytmy jako zagrożenie w dla bezpieczeństwa dzieci to jedno. Dostrzegamy jeszcze inny palący problem – nudifying, czyli rozbieranie innych osób z pomocą sztucznej inteligencji. Są też boty, które rozmawiają z dziećmi i proponują im albo samookaleczenia, albo samobójstwa. To nam się wymyka i to są realne zagrożenia– alarmowała Martyna Różycka. 

Uczestnicy dyskusji wskazali na trudności w definiowaniu „treści szkodliwych” w kontekście ochrony dzieci w Internecie. Rozmawiali o konieczności dostosowania platform cyfrowych do specyficznych potrzeb młodszych użytkowników. Eksperci podkreślili też potrzebę weryfikacji treści generatywnych oraz stosowania wielomodalnych rozwiązań technologicznych, które mogą lepiej identyfikować oszustwa. 

Na zdjęciu widoczna jest scena konferencji odbywającej się w Sejmie RP. Trzy osoby siedzą na fotelach: Martyna Różycka, Ewelina Bartuzi-Trokielewicz oraz Filip Konopczyński. W tle widoczne są flagi Polski i Unii Europejskiej, a uczestnicy biorą udział w dyskusji panelowej.

Poruszono też problem tzw. patostreamów i ogromnej trudności w zdefiniowaniu tego zjawiska, co jest konieczne, by ograniczyć je poprzez odpowiednie przepisy. Zmiany w prawie pozwolą zmniejszyć negatywne skutki rozwoju technologii, które niewątpliwie stanowią problem. Jednocześnie twórcy szkodliwych i nielegalnych treści na pewno będą próbowali obchodzić prawo w różny sposób. Dlatego ważna jest edukacja i uważność zarówno dorosłych, jak i dzieci, by reagować i zgłaszać szkodliwe treści np. poprzez prowadzony przez instytut NASK serwis Dyżurnet.pl, a także aplikację mObywatel. 

Obywatelski asystent AI, cyfryzacja administracji i rodzina polskich modeli językowych 

Pomysł na AI w urzędach przywodzi na myśl budowę systemów wirtualnych asystentów zarówno dla obywatela, jak i takich, które wspomagałyby pracę urzędnika. Do takich rozwiązań potrzebna jest kontynuacja rozwoju polskich LLM-ów (Large Language Model) czyli tak zwanych PLLM-ów, takich jak Bielik i PLLuM. 

Mamy obecnie nie jeden model, tylko rodzinę polskich modeli językowych, bardzo różnych rozmiarów. Od małych, które liczą sobie 7-12 miliardów parametrów, do dużych, liczących 70 miliardów i więcej. Mamy modele ogólnego użytku i specjalistyczne, a także takie, które są adaptowane językowo. To znaczy bazujemy na działających modelach wielojęzycznych, które douczamy o dane polskojęzyczne – wyjaśniała Agnieszka Karlińska, adiunktka z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. 

Jednak to nie tylko wielkie spektakularne modele tworzą rewolucję AI w polskiej administracji. 

– Nie możemy także pomijać wagi drobnych, wydawałoby się, przyczółków. Mówię tu o niepozornie wyglądających rozwiązaniach technologicznych, które rozwiązują jakiś mały problem, na przykład, żeby dokument został odpowiednio zaklasyfikowany w EZD albo trafił do właściwej skrzynki mailowej. Nie możemy zapominać o tych mniej spektakularnych rozwiązaniach, które potrafią zmienić bardzo dużo – podkreślał Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. Takie rozwiązania to duże ułatwienie dla urzędników, które niczym puzzle budują obraz cyfrowej, bardziej sprawnej administracji państwowej. Jednocześnie wirtualny asystent, o którym była mowa wcześniej, nie jest pieśnią przyszłości. Prototyp takiego narzędzia już powstał i efekty tego projektu są testowane. Jest szansa, że będzie on wdrażany już w przyszłym roku.  

– Na tym etapie, to jeszcze nie jest wdrożenie – mówiła o projekcie Agnieszka Karlińska. – Trwają testy asystenta obywatelskiego, czyli narzędzia, które pozwala wyszukiwać odpowiedzi na pytania z domen gov.pl. Proponuje on odpowiedzi na podstawie bazy wiedzy generowanej właśnie z domeny państwowej, więc ryzyko halucynacji (przekłamań) jest niewielkie.  

Na zdjęciu uwieczniono panel dyskusyjny podczas konferencji w Sejmie RP. Uczestnikami są Szymon Łukasik, Agnieszka Karlińska i Grzegorz Żmijewski, siedzący na białych fotelach. Szymon Łukasik trzyma mikrofon i wygłasza swoją wypowiedź. W tle widoczna jest flaga Polski oraz ekran z fragmentem napisu dotyczącym tematu dyskusji: „...bezpieczne AI”.

Droga do rozwoju sztucznej inteligencji w Polsce 

Współorganizowana przez instytut badawczy NASK konferencja była ważnym krokiem w kształtowaniu odpowiedzialnych i innowacyjnych podejść do regulacji oraz wykorzystania sztucznej inteligencji, co może przynieść korzyści zarówno obywatelom, jak i gospodarce. Z ust wiceministra cyfryzacji Dariusza Standerskiego padła ważna zapowiedź uproszczenia procedur kontrolnych oraz wsparcia finansowego projektów AI, w tym z funduszy unijnych. Eksperci podkreślali w debatach ogromne znaczenie współpracy ponad podziałami politycznymi oraz promocję innowacyjnych projektów. 

Na zdjęciu widoczny jest Dariusz Standerski podczas przemówienia na konferencji w Sejmie RP. Stoi przy mównicy, ubrany w elegancki garnitur, i przemawia do zgromadzonych uczestników. W tle znajdują się flaga Polski, flaga Unii Europejskiej oraz godło Polski, co podkreśla oficjalny charakter wydarzenia. Widać mikrofon ustawiony na mównicy, co wskazuje na formalną formę wystąpienia.

Udostępnij ten post

Wyróżnione aktualności

Paweł Kostkiewicz
Typ_aktualnosc Aktualność
02 Kwietnia 2026|7 min. czytania

Razem dla bezpieczeństwa sieci 5G – warsztaty 5G TACTIC w NASK

5G ma napędzać transport, przemysł, administrację, a za chwilę – rzeczy, których jeszcze nawet nie nazywamy. Problem w tym, że im więcej od tej technologii zależy, tym mniej miejsca zostaje na pomyłki.

Grafika z kołami mającymi symbolizować nowoczesne przesyłanie informacji.
Typ_aktualnosc Aktualność
27 Marca 2026|4 min. czytania

Transgraniczna autostrada danych. Ruszył projekt QKD Germany‑Poland‑Czechia

Czy istnieje rozmowa, której nie da się podsłuchać albo informacje, których nie da się przechwycić? W niedalekiej przyszłości powstanie pierwsza tak rozbudowana sieć kwantowa w Europie Środkowej, która wykorzysta technologię generowania i dystrybucji kluczy kryptograficznych. To oznacza bezpieczne przesyłanie informacji międzynarodowych. NASK jest partnerem tej inicjatywy.

Dyrektor i Minister oglądają komputer
Typ_aktualnosc Aktualność
23 Marca 2026|7 min. czytania

Moc obliczeniowa dla polskiej AI. Pierwszy superkomputer NASK wystartował

NASK uruchomił nowy klaster do obliczeń AI. Wart 30 milionów złotych projekt to inwestycja w zdolność prowadzenia badań, tworzenia własnych narzędzi i rozwijania technologii, które odpowiadają na konkretne potrzeby państwa i obywateli.

Trzech mężczyzn w garniturach ściska dłonie podczas wydarzenia z okazji 30-lecia CERT Polska; w tle widoczna grafika z napisem „30 lat CERT Polska” oraz logotypy NASK i Ministerstwa Cyfryzacji.
Typ_aktualnosc Aktualność
11 Marca 2026|8 min. czytania

Cyberbezpiecznie od 30 lat. CERT Polska

Od 12 incydentów w 1996 roku, po przeszło 260 tysięcy w ubiegłym. Te liczby najlepiej pokazują, jak diametralnie zmieniła się skala cyberataków oraz rola CERT Polska w podnoszeniu świadomości o cyberbezpieczeństwie. Pierwszy w Polsce zespół reagowania na zagrożenia w sieci, który powstał w NASK, obchodzi właśnie 30 urodziny.

Informacje

Najnowsze aktualności

Material-Dowodowy-Cyfrowy-Paraliz
Typ_aktualnosc Aktualność
12 Maja 2026|1 min. czytania

"Cyfrowy paraliż". Podcast Radia ZET o cyberataku na szpital w Łodzi

 Inspirujaca współpraca NASK z Radiem Zet przenosi temat cyberprzestępczości do świata podcastów. Dziennikarz i podcaster kryminalny popularnej „zetki”  Mateusz Kapera stworzył materiał o ataku hakerskim na Instytut Centrum Zdrowia Matki Polki w Łodzi. Niebagatelną rolę w przywracaniu szpitala do normalności odegrał zespół CERT Polska, który działa w ramach NASK.

Logo NASK i Impact’26 na różowo-pomarańczowym gradientowym tle.
Typ_aktualnosc Aktualność
12 Maja 2026|7 min. czytania

Anatomia cyberprzestępstw. NASK na Impact'26

Czy ten tekst napisała AI? Nie. Ale dziś pisze całe książki i bez problemu naśladuje styl Katarzyny Puzyńskiej, autorki bestsellerów. Co zrobić, gdy hakerzy żądają wielomilionowego okupu w zamian za odblokowanie systemu w jednym z największych szpitali dziecięcych w Polsce? I co łączy te sprawy? Odpowiedź jest jedna – NASK. A dlaczego i w jaki sposób – o tym na stoisku NASK na Impact’26.

Kobieta przy biurku w luźne pomarańczowej koszuli, przed nią laptop.
Typ_aktualnosc Aktualność
08 Maja 2026|4 min. czytania

Jeden laptop. Jeden błąd. I problem dla całej firmy

Czy wiesz, że jeden niezabezpieczony laptop może stać się furtką dla cyberprzestępców i zagrozić całej organizacji? Firmowy sprzęt to dostęp do danych, systemów, dokumentów i komunikacji biznesowej. A każde urządzenie podłączone do sieci może być wsparciem dla firmy i jej najsłabszym ogniwem. W poradniku NASK “Sprzęt firmowy pod kontrolą - 12 filarów bezpieczeństwa” pokazujemy jak krok po kroku zadbać o odpowiednią ochronę firmy i pracowników.