Wizja rozwoju AI w Sejmie. Na konferencji NASK
Bliżej nam do "inteligentnego asystenta" dla urzędników i obywateli niż do spójnych regulacji prawnych (w Polsce i Europie) dotyczących AI. A regulacje są pilne i konieczne, bo rozwój tej technologii rodzi wiele wątpliwości. O przemyślanym i bezpiecznym rozwoju AI w Polsce rozmawiali uczestnicy konferencji, zorganizowanej w Sejmie przez instytut badawczy NASK.


Konferencja „AI 360. Regulacje, innowacje, współpraca” to spotkanie zorganizowane 16 grudnia przez NASK, we współpracy z sejmową Komisją Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Uniwersytetem Warszawskim. Dyskutowano o polskiej i europejskiej perspektywie rozwoju sztucznej inteligencji, ochronie dzieci i młodzieży w obliczu zagrożeń, jakie niesie nowa technologia, rozwiązaniach dla biznesu, administracji państwowej i współpracy międzynarodowej.
Polska może być liderem rozwoju AI w regionie. Potencjał naszego kraju jest ogromny, ponieważ już teraz, między innymi dzięki współtworzonej przez NASK aplikacji mObywatel, wyznaczamy w Europie trendy dotyczące cyfryzacji państwa. Nie tylko Polska, ale cała Europa stoi jednak wobec wyzwania, jakim jest przygotowanie prawa, które ochroni Europejczyków przed zagrożeniami i jednocześnie nie zahamuje rozwoju cyfrowej rewolucji w UE.
– Sztuczna inteligencja i algorytmy będą z nami w każdej chwili życia – w edukacji, polityce i w administracji. W każdym miejscu już dzisiaj spotykamy się z AI, więc prawo, które będzie mówiło o przejrzystości algorytmów i sztucznej inteligencji, jest naprawdę dla nas bardzo istotne – podkreślał Grzegorz Napieralski, przewodniczący podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów.
Na potrzebę debaty ponad podziałami i współpracy między różnymi grupami interesów zwracał uwagę wicemarszałek Sejmu Krzysztof Bosak: – Wbrew temu, co się mówi, jest możliwa współpraca ponadpolityczna. Jest bardzo dużo miejsca na normalną dyskusję w Sejmie – twierdził.

Dzieci, ich rodzice i wyzwania, jakie stawia przed nimi AI
– Odbierałam ostatnio dzieci mojej sąsiadki ze świetlicy. Oglądały krótkie filmiki na platformie społecznościowej. Usłyszałam bardzo syntetyczny głos z wszystkimi błędami, które obserwuję przy analizie takich materiałów. Zapytałam, czy są świadomi tego, że oglądają coś, co nie zostało stworzone przez człowieka, że tam nie występują prawdziwe osoby, że ten głos jest sztuczny. Oni jednoznacznie odpowiedzieli: “Nie, to są prawdziwe filmiki”. Kilkuletni chłopcy oglądali materiały propagujące buntownicze nastawienie do rodziców, którzy zakazują np. grać w gry komputerowe” – rozpoczęła dyskusję dr Ewelina Bartuzi-Trokielewicz, która w NASK kieruje Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w nowo powołanym Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Wyzwania, jakie rozwój technologii AI stawia przed rodzicami i wszystkimi dorosłymi, którzy tworzą w Polsce prawo i zajmują się ochroną małoletnich w sieci, były istotną częścią konferencji.
– Taco Hemingway w jednym ze swoich tekstów opisuje, skąd się biorą wzorce opisujące życie seksualne młodzieży, co wychowuje polską młodzież w kontekście ich przyszłych wydarzeń dotyczących związków, dotyczących relacji, tego, jak widzą seks, jak widzą tego typu zachowania, jak widzą relacje pomiędzy partnerami, partnerkami. Dzisiaj każde dziecko uzyskuje dostęp do treści pornograficznych zaznaczając jeden krzyżyk na jednym checkboxie. Mam 18 lat, wchodzę dalej. W ten sposób dostawcy takich treści zdejmują z siebie jakąkolwiek odpowiedzialność – zauważał Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji.

Wiceminister Gramatyka pracuje nad nową ustawą o ochronie małoletnich przed szkodliwymi treściami w internecie. Dużym wsparciem w przygotowaniu takich przepisów jest wiedza, którą posiada Martyna Różycka kierująca w NASK zespołem Dyżurnet.pl.
Patostreaming, nudifying i problemy prawne
– Algorytmy jako zagrożenie w dla bezpieczeństwa dzieci to jedno. Dostrzegamy jeszcze inny palący problem – nudifying, czyli rozbieranie innych osób z pomocą sztucznej inteligencji. Są też boty, które rozmawiają z dziećmi i proponują im albo samookaleczenia, albo samobójstwa. To nam się wymyka i to są realne zagrożenia– alarmowała Martyna Różycka.
Uczestnicy dyskusji wskazali na trudności w definiowaniu „treści szkodliwych” w kontekście ochrony dzieci w Internecie. Rozmawiali o konieczności dostosowania platform cyfrowych do specyficznych potrzeb młodszych użytkowników. Eksperci podkreślili też potrzebę weryfikacji treści generatywnych oraz stosowania wielomodalnych rozwiązań technologicznych, które mogą lepiej identyfikować oszustwa.

Poruszono też problem tzw. patostreamów i ogromnej trudności w zdefiniowaniu tego zjawiska, co jest konieczne, by ograniczyć je poprzez odpowiednie przepisy. Zmiany w prawie pozwolą zmniejszyć negatywne skutki rozwoju technologii, które niewątpliwie stanowią problem. Jednocześnie twórcy szkodliwych i nielegalnych treści na pewno będą próbowali obchodzić prawo w różny sposób. Dlatego ważna jest edukacja i uważność zarówno dorosłych, jak i dzieci, by reagować i zgłaszać szkodliwe treści np. poprzez prowadzony przez instytut NASK serwis Dyżurnet.pl, a także aplikację mObywatel.
Obywatelski asystent AI, cyfryzacja administracji i rodzina polskich modeli językowych
Pomysł na AI w urzędach przywodzi na myśl budowę systemów wirtualnych asystentów zarówno dla obywatela, jak i takich, które wspomagałyby pracę urzędnika. Do takich rozwiązań potrzebna jest kontynuacja rozwoju polskich LLM-ów (Large Language Model) czyli tak zwanych PLLM-ów, takich jak Bielik i PLLuM.
Mamy obecnie nie jeden model, tylko rodzinę polskich modeli językowych, bardzo różnych rozmiarów. Od małych, które liczą sobie 7-12 miliardów parametrów, do dużych, liczących 70 miliardów i więcej. Mamy modele ogólnego użytku i specjalistyczne, a także takie, które są adaptowane językowo. To znaczy bazujemy na działających modelach wielojęzycznych, które douczamy o dane polskojęzyczne – wyjaśniała Agnieszka Karlińska, adiunktka z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Jednak to nie tylko wielkie spektakularne modele tworzą rewolucję AI w polskiej administracji.
– Nie możemy także pomijać wagi drobnych, wydawałoby się, przyczółków. Mówię tu o niepozornie wyglądających rozwiązaniach technologicznych, które rozwiązują jakiś mały problem, na przykład, żeby dokument został odpowiednio zaklasyfikowany w EZD albo trafił do właściwej skrzynki mailowej. Nie możemy zapominać o tych mniej spektakularnych rozwiązaniach, które potrafią zmienić bardzo dużo – podkreślał Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. Takie rozwiązania to duże ułatwienie dla urzędników, które niczym puzzle budują obraz cyfrowej, bardziej sprawnej administracji państwowej. Jednocześnie wirtualny asystent, o którym była mowa wcześniej, nie jest pieśnią przyszłości. Prototyp takiego narzędzia już powstał i efekty tego projektu są testowane. Jest szansa, że będzie on wdrażany już w przyszłym roku.
– Na tym etapie, to jeszcze nie jest wdrożenie – mówiła o projekcie Agnieszka Karlińska. – Trwają testy asystenta obywatelskiego, czyli narzędzia, które pozwala wyszukiwać odpowiedzi na pytania z domen gov.pl. Proponuje on odpowiedzi na podstawie bazy wiedzy generowanej właśnie z domeny państwowej, więc ryzyko halucynacji (przekłamań) jest niewielkie.

Droga do rozwoju sztucznej inteligencji w Polsce
Współorganizowana przez instytut badawczy NASK konferencja była ważnym krokiem w kształtowaniu odpowiedzialnych i innowacyjnych podejść do regulacji oraz wykorzystania sztucznej inteligencji, co może przynieść korzyści zarówno obywatelom, jak i gospodarce. Z ust wiceministra cyfryzacji Dariusza Standerskiego padła ważna zapowiedź uproszczenia procedur kontrolnych oraz wsparcia finansowego projektów AI, w tym z funduszy unijnych. Eksperci podkreślali w debatach ogromne znaczenie współpracy ponad podziałami politycznymi oraz promocję innowacyjnych projektów.

Wyróżnione aktualności
Rosyjskie lub białoruskie źródło informacji – bądźcie ostrożni. Rekomendacje dla mediów
Białoruskie służby podały, że zapobiegły przemytowi największej w historii partii materiałów wybuchowych z Polski na terytorium Białorusi i Rosji. Informację tę publikują polskie media. Apelujemy o ostrożność i informowanie odbiorców, że to może być dezinformacja.
Sukces NASK. Ewelina Bartuzi-Trokielewicz z grantem LIDERA
Fałszywe reklamy inwestycyjne, deepfake’i z celebrytami i linki, które prowadzą donikąd – właśnie z tym mierzy się Ewelina Bartuzi-Trokielewicz w swoim nowym projekcie badawczym.
300 incydentów dziennie - premiera raportu CERT Polska za 2024 rok
Fala zagrożeń rośnie, bo incydentów w cyberprzestrzeni jest coraz więcej, lecz także chronimy się przed nimi coraz lepiej – to wnioski, które płyną z najnowszego raportu CERT Polska za 2024 rok. Zostały one przekazane podczas SECURE International Summit 2025. Trudno wyobrazić sobie lepsze miejsce do prezentacji tak istotnego dokumentu, niż największa impreza polskiej prezydencji poświęcona cyberbezpieczeństwu.
Dziewczyny – czas na Klub Cyfrowych Możliwości!
Jesteś studentką co najmniej drugiego roku kierunku związanego z ICT*? Chcesz zdobyć stypendium, referencje, nowe umiejętności i wiedzę, a przy okazji zarobić? Zgłoś się do projektu Klub Cyfrowych Możliwości (KCM)!
Najnowsze aktualności
Reklama ze znaną osobą? Uważaj, to może być oszustwo
Reklama z wizerunkiem znanej osoby, który zachęca do inwestowania? Krótkie wideo, w którym przekonują Cię, że to bezpieczny sposób pomnożenia majątku? Uważaj, tak dziś działają oszuści!
Słodka nazwa, gorzkie konsekwencje – co tak naprawdę robią pliki cookie?
Wchodzisz na stronę internetową, chcesz tylko przeczytać artykuł, sprawdzić przepis, kupić bilet. Ale zanim zobaczysz pierwszy akapit czy zdjęcie, na ekranie pojawia się znajome okienko: „Ta strona używa plików cookie. Akceptujesz? Klikasz „Zgadzam się” – jak zwykle, szybko, odruchowo. Przecież to tylko formalność.
Nie pozwól sobie odebrać głosu. Kampania, która sięga głębiej
Dezinformacja nie zawsze wygląda jak zagrożenie. Często to znajoma twarz, intrygujący tytuł, pozornie wiarygodne źródło. Nowa kampania społeczna NASK „Nie pozwól sobie odebrać głosu” bierze na tapet nie tylko treści, które wprowadzają w błąd, ale i emocje, które tym manipulacjom towarzyszą.