Wizja rozwoju AI w Sejmie. Na konferencji NASK
Bliżej nam do "inteligentnego asystenta" dla urzędników i obywateli niż do spójnych regulacji prawnych (w Polsce i Europie) dotyczących AI. A regulacje są pilne i konieczne, bo rozwój tej technologii rodzi wiele wątpliwości. O przemyślanym i bezpiecznym rozwoju AI w Polsce rozmawiali uczestnicy konferencji, zorganizowanej w Sejmie przez instytut badawczy NASK.


Konferencja „AI 360. Regulacje, innowacje, współpraca” to spotkanie zorganizowane 16 grudnia przez NASK, we współpracy z sejmową Komisją Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Uniwersytetem Warszawskim. Dyskutowano o polskiej i europejskiej perspektywie rozwoju sztucznej inteligencji, ochronie dzieci i młodzieży w obliczu zagrożeń, jakie niesie nowa technologia, rozwiązaniach dla biznesu, administracji państwowej i współpracy międzynarodowej.
Polska może być liderem rozwoju AI w regionie. Potencjał naszego kraju jest ogromny, ponieważ już teraz, między innymi dzięki współtworzonej przez NASK aplikacji mObywatel, wyznaczamy w Europie trendy dotyczące cyfryzacji państwa. Nie tylko Polska, ale cała Europa stoi jednak wobec wyzwania, jakim jest przygotowanie prawa, które ochroni Europejczyków przed zagrożeniami i jednocześnie nie zahamuje rozwoju cyfrowej rewolucji w UE.
– Sztuczna inteligencja i algorytmy będą z nami w każdej chwili życia – w edukacji, polityce i w administracji. W każdym miejscu już dzisiaj spotykamy się z AI, więc prawo, które będzie mówiło o przejrzystości algorytmów i sztucznej inteligencji, jest naprawdę dla nas bardzo istotne – podkreślał Grzegorz Napieralski, przewodniczący podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów.
Na potrzebę debaty ponad podziałami i współpracy między różnymi grupami interesów zwracał uwagę wicemarszałek Sejmu Krzysztof Bosak: – Wbrew temu, co się mówi, jest możliwa współpraca ponadpolityczna. Jest bardzo dużo miejsca na normalną dyskusję w Sejmie – twierdził.

Dzieci, ich rodzice i wyzwania, jakie stawia przed nimi AI
– Odbierałam ostatnio dzieci mojej sąsiadki ze świetlicy. Oglądały krótkie filmiki na platformie społecznościowej. Usłyszałam bardzo syntetyczny głos z wszystkimi błędami, które obserwuję przy analizie takich materiałów. Zapytałam, czy są świadomi tego, że oglądają coś, co nie zostało stworzone przez człowieka, że tam nie występują prawdziwe osoby, że ten głos jest sztuczny. Oni jednoznacznie odpowiedzieli: “Nie, to są prawdziwe filmiki”. Kilkuletni chłopcy oglądali materiały propagujące buntownicze nastawienie do rodziców, którzy zakazują np. grać w gry komputerowe” – rozpoczęła dyskusję dr Ewelina Bartuzi-Trokielewicz, która w NASK kieruje Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w nowo powołanym Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Wyzwania, jakie rozwój technologii AI stawia przed rodzicami i wszystkimi dorosłymi, którzy tworzą w Polsce prawo i zajmują się ochroną małoletnich w sieci, były istotną częścią konferencji.
– Taco Hemingway w jednym ze swoich tekstów opisuje, skąd się biorą wzorce opisujące życie seksualne młodzieży, co wychowuje polską młodzież w kontekście ich przyszłych wydarzeń dotyczących związków, dotyczących relacji, tego, jak widzą seks, jak widzą tego typu zachowania, jak widzą relacje pomiędzy partnerami, partnerkami. Dzisiaj każde dziecko uzyskuje dostęp do treści pornograficznych zaznaczając jeden krzyżyk na jednym checkboxie. Mam 18 lat, wchodzę dalej. W ten sposób dostawcy takich treści zdejmują z siebie jakąkolwiek odpowiedzialność – zauważał Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji.

Wiceminister Gramatyka pracuje nad nową ustawą o ochronie małoletnich przed szkodliwymi treściami w internecie. Dużym wsparciem w przygotowaniu takich przepisów jest wiedza, którą posiada Martyna Różycka kierująca w NASK zespołem Dyżurnet.pl.
Patostreaming, nudifying i problemy prawne
– Algorytmy jako zagrożenie w dla bezpieczeństwa dzieci to jedno. Dostrzegamy jeszcze inny palący problem – nudifying, czyli rozbieranie innych osób z pomocą sztucznej inteligencji. Są też boty, które rozmawiają z dziećmi i proponują im albo samookaleczenia, albo samobójstwa. To nam się wymyka i to są realne zagrożenia– alarmowała Martyna Różycka.
Uczestnicy dyskusji wskazali na trudności w definiowaniu „treści szkodliwych” w kontekście ochrony dzieci w Internecie. Rozmawiali o konieczności dostosowania platform cyfrowych do specyficznych potrzeb młodszych użytkowników. Eksperci podkreślili też potrzebę weryfikacji treści generatywnych oraz stosowania wielomodalnych rozwiązań technologicznych, które mogą lepiej identyfikować oszustwa.

Poruszono też problem tzw. patostreamów i ogromnej trudności w zdefiniowaniu tego zjawiska, co jest konieczne, by ograniczyć je poprzez odpowiednie przepisy. Zmiany w prawie pozwolą zmniejszyć negatywne skutki rozwoju technologii, które niewątpliwie stanowią problem. Jednocześnie twórcy szkodliwych i nielegalnych treści na pewno będą próbowali obchodzić prawo w różny sposób. Dlatego ważna jest edukacja i uważność zarówno dorosłych, jak i dzieci, by reagować i zgłaszać szkodliwe treści np. poprzez prowadzony przez instytut NASK serwis Dyżurnet.pl, a także aplikację mObywatel.
Obywatelski asystent AI, cyfryzacja administracji i rodzina polskich modeli językowych
Pomysł na AI w urzędach przywodzi na myśl budowę systemów wirtualnych asystentów zarówno dla obywatela, jak i takich, które wspomagałyby pracę urzędnika. Do takich rozwiązań potrzebna jest kontynuacja rozwoju polskich LLM -ów (Large Language Model) czyli tak zwanych PLLM-ów, takich jak Bielik i PLLuM.
Mamy obecnie nie jeden model, tylko rodzinę polskich modeli językowych, bardzo różnych rozmiarów. Od małych, które liczą sobie 7-12 miliardów parametrów, do dużych, liczących 70 miliardów i więcej. Mamy modele ogólnego użytku i specjalistyczne, a także takie, które są adaptowane językowo. To znaczy bazujemy na działających modelach wielojęzycznych, które douczamy o dane polskojęzyczne – wyjaśniała Agnieszka Karlińska, adiunktka z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Jednak to nie tylko wielkie spektakularne modele tworzą rewolucję AI w polskiej administracji.
– Nie możemy także pomijać wagi drobnych, wydawałoby się, przyczółków. M ówię tu o niepozornie wyglądających rozwiązaniach technologicznych, które rozwiązują jakiś mały problem, na przykład, żeby dokument został odpowiednio zaklasyfikowany w EZD albo trafił do właściwej skrzynki mailowej. Nie możemy zapominać o tych mniej spektakularnych rozwiązaniach, które potrafią zmienić bardzo dużo – podkreślał Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. Takie rozwiązania to duże ułatwienie dla urzędników, które niczym puzzle budują obraz cyfrowej, bardziej sprawnej administracji państwowej. Jednocześnie wirtualny asystent, o którym była mowa wcześniej, nie jest pieśnią przyszłości. Prototyp takiego narzędzia już powstał i efekty tego projektu są testowane. Jest szansa, że będzie on wdrażany już w przyszłym roku.
– Na tym etapie, to jeszcze nie jest wdrożenie – mówiła o projekcie Agnieszka Karlińska. – Trwają testy asystenta obywatelskiego, czyli narzędzia, które pozwala wyszukiwać odpowiedzi na pytania z domen gov.pl. Proponuje on odpowiedzi na podstawie bazy wiedzy generowanej właśnie z domeny państwowej, więc ryzyko halucynacji (przekłamań) jest niewielkie.

Droga do rozwoju sztucznej inteligencji w Polsce
Współorganizowana przez instytut badawczy NASK konferencja była ważnym krokiem w kształtowaniu odpowiedzialnych i innowacyjnych podejść do regulacji oraz wykorzystania sztucznej inteligencji, co może przynieść korzyści zarówno obywatelom, jak i gospodarce. Z ust wiceministra cyfryzacji Dariusza Standerskiego padła ważna zapowiedź uproszczenia procedur kontrolnych oraz wsparcia finansowego projektów AI, w tym z funduszy unijnych. Eksperci podkreślali w debatach ogromne znaczenie współpracy ponad podziałami politycznymi oraz promocję innowacyjnych projektów.

Wyróżnione aktualności
Chałkoń z farmy lajków. Humor w social mediach i jego ciemne oblicze
Internet żyje trendami, a jednym z największych w ostatnim czasie jest tzw. Chałkoń. Wygenerowany przez sztuczną inteligencję żart, wskazuje na skuteczność virali w kształtowaniu opinii publicznej i skłania do pytań o zagrożenie rozprzestrzeniania się dezinformacji.
Jak rozpoznać deepfake po błędach w głosie?
Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.
Twoje dane osobowe wyciekły? Musisz działać szybko! Sprawdź, co robić
Kiedy imię, nazwisko, numer PESEL czy dane logowania trafiają w niepowołane ręce, skutki mogą być dramatyczne – od kradzieży tożsamości po straty finansowe. Jak się chronić przed skutkami wycieku danych osobowych? Radzą Eksperci z CERT Polska.
Premier Wietnamu w instytucie NASK
Premier Wietnamu Pham Minh Chinh z wizytą w instytucie badawczym NASK. Delegacja odwiedziła Warszawę przy okazji 75-ej rocznicy nawiązania stosunków dyplomatycznych między Wietnamem i Polską.
Najnowsze aktualności
moje.cert.pl – Twój test bezpieczeństwa w internecie
Każdy - zarówno osoba prywatna, mała firma czy duża instytucja publiczna - może sprawdzić, czy jego serwis jest bezpieczny, a więc budować i rozwijać swoje cyberbezpieczeństwo. Narzędzie jest bezpłatne.
Zrozumieć cyfrową samotność. Jak chronić dzieci przed zagrożeniami w sieci?
Niemal co trzeci nastolatek w Polsce nie ma zdrowych mechanizmów korzystania z internetu, a uzależnienie od smartfona to często problem rodzinny – dotyczy zarówno dzieci, jak i rodziców. Specjaliści alarmują, że nie mamy dla dzieci czasu, nie rozmawiamy z nimi i nie mają one do nas zaufania. Jak to zmienić? Dyskutowano o tym podczas Gali Dnia Bezpiecznego Internetu - zorganizowanej przez NASK i Fundację Dajemy Dzieciom Siłę.
W Paryżu o bezpiecznej i etycznej Sztucznej Inteligencji
Nobliści, czołowi eksperci od AI biorą udział w prestiżowej konferencji IASEAI '25 we Francji. Reprezentujący Polskę Szymon Łukasik z NASK, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji, przedstawi doświadczenia Instytutu związane z dużymi modelami językowymi i wykrywaniem szkodliwych treści syntetycznych.