Wizja rozwoju AI w Sejmie. Na konferencji NASK
Bliżej nam do "inteligentnego asystenta" dla urzędników i obywateli niż do spójnych regulacji prawnych (w Polsce i Europie) dotyczących AI. A regulacje są pilne i konieczne, bo rozwój tej technologii rodzi wiele wątpliwości. O przemyślanym i bezpiecznym rozwoju AI w Polsce rozmawiali uczestnicy konferencji, zorganizowanej w Sejmie przez instytut badawczy NASK.


Konferencja „AI 360. Regulacje, innowacje, współpraca” to spotkanie zorganizowane 16 grudnia przez NASK, we współpracy z sejmową Komisją Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Uniwersytetem Warszawskim. Dyskutowano o polskiej i europejskiej perspektywie rozwoju sztucznej inteligencji, ochronie dzieci i młodzieży w obliczu zagrożeń, jakie niesie nowa technologia, rozwiązaniach dla biznesu, administracji państwowej i współpracy międzynarodowej.
Polska może być liderem rozwoju AI w regionie. Potencjał naszego kraju jest ogromny, ponieważ już teraz, między innymi dzięki współtworzonej przez NASK aplikacji mObywatel, wyznaczamy w Europie trendy dotyczące cyfryzacji państwa. Nie tylko Polska, ale cała Europa stoi jednak wobec wyzwania, jakim jest przygotowanie prawa, które ochroni Europejczyków przed zagrożeniami i jednocześnie nie zahamuje rozwoju cyfrowej rewolucji w UE.
– Sztuczna inteligencja i algorytmy będą z nami w każdej chwili życia – w edukacji, polityce i w administracji. W każdym miejscu już dzisiaj spotykamy się z AI, więc prawo, które będzie mówiło o przejrzystości algorytmów i sztucznej inteligencji, jest naprawdę dla nas bardzo istotne – podkreślał Grzegorz Napieralski, przewodniczący podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów.
Na potrzebę debaty ponad podziałami i współpracy między różnymi grupami interesów zwracał uwagę wicemarszałek Sejmu Krzysztof Bosak: – Wbrew temu, co się mówi, jest możliwa współpraca ponadpolityczna. Jest bardzo dużo miejsca na normalną dyskusję w Sejmie – twierdził.

Dzieci, ich rodzice i wyzwania, jakie stawia przed nimi AI
– Odbierałam ostatnio dzieci mojej sąsiadki ze świetlicy. Oglądały krótkie filmiki na platformie społecznościowej. Usłyszałam bardzo syntetyczny głos z wszystkimi błędami, które obserwuję przy analizie takich materiałów. Zapytałam, czy są świadomi tego, że oglądają coś, co nie zostało stworzone przez człowieka, że tam nie występują prawdziwe osoby, że ten głos jest sztuczny. Oni jednoznacznie odpowiedzieli: “Nie, to są prawdziwe filmiki”. Kilkuletni chłopcy oglądali materiały propagujące buntownicze nastawienie do rodziców, którzy zakazują np. grać w gry komputerowe” – rozpoczęła dyskusję dr Ewelina Bartuzi-Trokielewicz, która w NASK kieruje Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w nowo powołanym Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Wyzwania, jakie rozwój technologii AI stawia przed rodzicami i wszystkimi dorosłymi, którzy tworzą w Polsce prawo i zajmują się ochroną małoletnich w sieci, były istotną częścią konferencji.
– Taco Hemingway w jednym ze swoich tekstów opisuje, skąd się biorą wzorce opisujące życie seksualne młodzieży, co wychowuje polską młodzież w kontekście ich przyszłych wydarzeń dotyczących związków, dotyczących relacji, tego, jak widzą seks, jak widzą tego typu zachowania, jak widzą relacje pomiędzy partnerami, partnerkami. Dzisiaj każde dziecko uzyskuje dostęp do treści pornograficznych zaznaczając jeden krzyżyk na jednym checkboxie. Mam 18 lat, wchodzę dalej. W ten sposób dostawcy takich treści zdejmują z siebie jakąkolwiek odpowiedzialność – zauważał Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji.

Wiceminister Gramatyka pracuje nad nową ustawą o ochronie małoletnich przed szkodliwymi treściami w internecie. Dużym wsparciem w przygotowaniu takich przepisów jest wiedza, którą posiada Martyna Różycka kierująca w NASK zespołem Dyżurnet.pl.
Patostreaming, nudifying i problemy prawne
– Algorytmy jako zagrożenie w dla bezpieczeństwa dzieci to jedno. Dostrzegamy jeszcze inny palący problem – nudifying, czyli rozbieranie innych osób z pomocą sztucznej inteligencji. Są też boty, które rozmawiają z dziećmi i proponują im albo samookaleczenia, albo samobójstwa. To nam się wymyka i to są realne zagrożenia– alarmowała Martyna Różycka.
Uczestnicy dyskusji wskazali na trudności w definiowaniu „treści szkodliwych” w kontekście ochrony dzieci w Internecie. Rozmawiali o konieczności dostosowania platform cyfrowych do specyficznych potrzeb młodszych użytkowników. Eksperci podkreślili też potrzebę weryfikacji treści generatywnych oraz stosowania wielomodalnych rozwiązań technologicznych, które mogą lepiej identyfikować oszustwa.

Poruszono też problem tzw. patostreamów i ogromnej trudności w zdefiniowaniu tego zjawiska, co jest konieczne, by ograniczyć je poprzez odpowiednie przepisy. Zmiany w prawie pozwolą zmniejszyć negatywne skutki rozwoju technologii, które niewątpliwie stanowią problem. Jednocześnie twórcy szkodliwych i nielegalnych treści na pewno będą próbowali obchodzić prawo w różny sposób. Dlatego ważna jest edukacja i uważność zarówno dorosłych, jak i dzieci, by reagować i zgłaszać szkodliwe treści np. poprzez prowadzony przez instytut NASK serwis Dyżurnet.pl, a także aplikację mObywatel.
Obywatelski asystent AI, cyfryzacja administracji i rodzina polskich modeli językowych
Pomysł na AI w urzędach przywodzi na myśl budowę systemów wirtualnych asystentów zarówno dla obywatela, jak i takich, które wspomagałyby pracę urzędnika. Do takich rozwiązań potrzebna jest kontynuacja rozwoju polskich LLM-ów (Large Language Model) czyli tak zwanych PLLM-ów, takich jak Bielik i PLLuM.
Mamy obecnie nie jeden model, tylko rodzinę polskich modeli językowych, bardzo różnych rozmiarów. Od małych, które liczą sobie 7-12 miliardów parametrów, do dużych, liczących 70 miliardów i więcej. Mamy modele ogólnego użytku i specjalistyczne, a także takie, które są adaptowane językowo. To znaczy bazujemy na działających modelach wielojęzycznych, które douczamy o dane polskojęzyczne – wyjaśniała Agnieszka Karlińska, adiunktka z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Jednak to nie tylko wielkie spektakularne modele tworzą rewolucję AI w polskiej administracji.
– Nie możemy także pomijać wagi drobnych, wydawałoby się, przyczółków. Mówię tu o niepozornie wyglądających rozwiązaniach technologicznych, które rozwiązują jakiś mały problem, na przykład, żeby dokument został odpowiednio zaklasyfikowany w EZD albo trafił do właściwej skrzynki mailowej. Nie możemy zapominać o tych mniej spektakularnych rozwiązaniach, które potrafią zmienić bardzo dużo – podkreślał Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. Takie rozwiązania to duże ułatwienie dla urzędników, które niczym puzzle budują obraz cyfrowej, bardziej sprawnej administracji państwowej. Jednocześnie wirtualny asystent, o którym była mowa wcześniej, nie jest pieśnią przyszłości. Prototyp takiego narzędzia już powstał i efekty tego projektu są testowane. Jest szansa, że będzie on wdrażany już w przyszłym roku.
– Na tym etapie, to jeszcze nie jest wdrożenie – mówiła o projekcie Agnieszka Karlińska. – Trwają testy asystenta obywatelskiego, czyli narzędzia, które pozwala wyszukiwać odpowiedzi na pytania z domen gov.pl. Proponuje on odpowiedzi na podstawie bazy wiedzy generowanej właśnie z domeny państwowej, więc ryzyko halucynacji (przekłamań) jest niewielkie.

Droga do rozwoju sztucznej inteligencji w Polsce
Współorganizowana przez instytut badawczy NASK konferencja była ważnym krokiem w kształtowaniu odpowiedzialnych i innowacyjnych podejść do regulacji oraz wykorzystania sztucznej inteligencji, co może przynieść korzyści zarówno obywatelom, jak i gospodarce. Z ust wiceministra cyfryzacji Dariusza Standerskiego padła ważna zapowiedź uproszczenia procedur kontrolnych oraz wsparcia finansowego projektów AI, w tym z funduszy unijnych. Eksperci podkreślali w debatach ogromne znaczenie współpracy ponad podziałami politycznymi oraz promocję innowacyjnych projektów.

Wyróżnione aktualności
Ctrl+Alt+Praca: jaką rzeczywistość wygeneruje nam AI?
Gdyby sztuczna inteligencja była Twoim współpracownikiem, to razem pilibyście kawę czy mijalibyście się na korytarzu bez słowa? Jak AI zmieni polski rynek pracy - mówił ekspert z NASK na prestiżowej konferencji unijnych ministrów organizowanej w ramach polskiej prezydencji w UE.
„Klub Cyfrowych Możliwości” - 25 milionów złotych na innowacje w polskich szkołach
W świecie, w którym kompetencje cyfrowe stają się jednym z kluczowych czynników rozwoju, ważne jest, by każdy – niezależnie od miejsca zamieszkania czy płci – miał szansę odkrywać i kształtować swoje zainteresowania w obszarze nowych technologii.
Jak rozpoznać deepfake po błędach logicznych?
W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.
Cyberoodporny samorząd – jak bronić się przed manipulacją?
Solidna porcja cennych informacji i wskazówek na temat dezinformacji oraz cyberhigieny. Tak w skrócie można określić bezpłatne szkolenia w formie webinarów przeprowadzane przez specjalistów z Instytutu NASK dla samorządów.
Najnowsze aktualności
Stanowisko w sprawie problemów technicznych przy organizacji pierwszego etapu IV Olimpiady Antysmogowej
Stanowisko w sprawie problemów technicznych przy organizacji pierwszego etapu IV Olimpiady Antysmogowej.
Scrollowanie bez końca – jak algorytmy reżyserują życie młodzieży
Nastolatki dorastają w środowisku, w którym media społecznościowe, ciągłe powiadomienia i multitasking ekranowy stały się normą. To z kolei aktywuje pętlę dopaminową – mechanizm ewolucyjny, które platformy cyfrowe wykorzystują do kształtowania nawyków użytkowników.
Warszawa centrum debaty o europejskim cyberbezpieczeństwie!
Eksperci, politycy i naukowcy z całej Europy dyskutują o tym jak zagwarantować cyberbezpieczne jutro. Trwa kolejna edycja prestiżowego wydarzenia – Cybersecurity Certification Week (CCW), które swoim patronatem objęły ENISA (Europejska Agencja ds. Cyberbezpieczeństwa) oraz Komisja Europejska.