Wizja rozwoju AI w Sejmie. Na konferencji NASK
Bliżej nam do "inteligentnego asystenta" dla urzędników i obywateli niż do spójnych regulacji prawnych w Polsce i Europie dotyczących AI. Są pilne i konieczne, bo rozwój tej technologii rodzi wiele pytań i wątpliwości. O przemyślanym i bezpiecznym rozwoju AI w Polsce rozmawiali uczestnicy całodniowej konferencji, zorganizowanej w Sejmie przez instytut badawczy NASK.
Konferencja „AI 360. Regulacje, innowacje, współpraca” to spotkanie zorganizowane 16 grudnia przez NASK, we współpracy z sejmową Komisję Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Uniwersytetem Warszawskim. Dyskutowano o polskiej i europejskiej perspektywie rozwoju sztucznej inteligencji, ochronie dzieci i młodzieży w obliczu zagrożeń, jakie niesie nowa technologia, rozwiązań dla biznesu, administracji państwowej i współpracy międzynarodowej.
Polska może być liderem rozwoju AI w regionie. Potencjał naszego kraju jest ogromny, ponieważ już teraz, między innymi dzięki współtworzonej przez NASK aplikacji mObywatel, wyznaczamy w Europie trendy dotyczące cyfryzacji państwa. Nie tylko Polska, ale cała Europa stoi jednak wobec wyzwania, jakim jest przygotowanie prawa, które ochroni Europejczyków przed zagrożeniami i jednocześnie nie zahamuje rozwoju cyfrowej rewolucji w UE.
– Sztuczna inteligencja i algorytmy będą z nami w każdej chwili życia – w edukacji, polityce i w administracji. W każdym miejscu już dzisiaj spotykamy się z AI, więc prawo, które będzie mówiło o przejrzystości algorytmów i sztucznej inteligencji, jest naprawdę dla nas bardzo istotne – podkreślał Grzegorz Napieralski, przewodniczący podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów.
Na potrzebę debaty ponad podziałami i współpracy między różnymi grupami interesów zwracał uwagę wicemarszałek Sejmu Krzysztof Bosak: – Wbrew temu, co się mówi, jest możliwa współpraca ponadpolityczna. Jest bardzo dużo miejsca na normalną dyskusję w Sejmie – twierdził.
Dzieci, ich rodzice i wyzwania, jakie stawia przed nimi AI
– Odbierałam ostatnio dzieci mojej sąsiadki ze świetlicy. Oglądały krótkie filmiki na platformie społecznościowej. Usłyszałam bardzo syntetyczny głos z wszystkimi błędami, które obserwuję przy analizie takich materiałów. Zapytałam, czy są świadomi tego, że oglądają coś, co nie zostało stworzone przez człowieka, że tam nie występują prawdziwe osoby, że ten głos jest sztuczny. Oni jednoznacznie odpowiedzieli: “Nie, to są prawdziwe filmiki”. Kilkuletni chłopcy oglądali materiały propagujące buntownicze nastawienie do rodziców, którzy zakazują np. grać w gry komputerowe” – rozpoczęła dyskusję dr Ewelina Bartuzi-Trokielewicz, która w NASK kieruje Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w nowo powołanym Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Wyzwania, jakie rozwój technologii AI stawia przed rodzicami i wszystkimi dorosłymi, którzy tworzą w Polsce prawo i zajmują się ochroną małoletnich w sieci, były istotną częścią konferencji.
– Taco Hemingway w jednym ze swoich tekstów opisuje, skąd się biorą wzorce opisujące życie seksualne młodzieży, co wychowuje polską młodzież w kontekście ich przyszłych wydarzeń dotyczących związków, dotyczących relacji, tego, jak widzą seks, jak widzą tego typu zachowania, jak widzą relacje pomiędzy partnerami, partnerkami. Dzisiaj każde dziecko uzyskuje dostęp do treści pornograficznych zaznaczając jeden krzyżyk na jednym checkboxie. Mam 18 lat, wchodzę dalej. W ten sposób dostawcy takich treści zdejmują z siebie jakąkolwiek odpowiedzialność – zauważał Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji.
Wiceminister Gramatyka pracuje nad nową ustawą o ochronie małoletnich przed szkodliwymi treściami w internecie. Dużym wsparciem w przygotowaniu takich przepisów jest wiedza, którą posiada Martyna Różycka kierująca w NASK zespołem Dyżurnet.pl.
Patostreaming, nudifying i problemy prawne
– Algorytmy jako zagrożenie w dla bezpieczeństwa dzieci to jedno. Dostrzegamy jeszcze inny palący problem – nudifying, czyli rozbieranie innych osób z pomocą sztucznej inteligencji. Są też boty, które rozmawiają z dziećmi i proponują im albo samookaleczenia, albo samobójstwa. To nam się wymyka i to są realne zagrożenia– alarmowała Martyna Różycka.
Uczestnicy dyskusji wskazali na trudności w definiowaniu „treści szkodliwych” w kontekście ochrony dzieci w Internecie. Rozmawiali o konieczności dostosowania platform cyfrowych do specyficznych potrzeb młodszych użytkowników. Eksperci podkreślili też potrzebę weryfikacji treści generatywnych oraz stosowania wielomodalnych rozwiązań technologicznych, które mogą lepiej identyfikować oszustwa.
Poruszono też problem tzw. patostreamów i ogromnej trudności w zdefiniowaniu tego zjawiska, co jest konieczne, by ograniczyć je poprzez odpowiednie przepisy. Zmiany w prawie pozwolą zmniejszyć negatywne skutki rozwoju technologii, które niewątpliwie stanowią problem. Jednocześnie twórcy szkodliwych i nielegalnych treści na pewno będą próbowali obchodzić prawo w różny sposób. Dlatego ważna jest edukacja i uważność zarówno dorosłych, jak i dzieci, by reagować i zgłaszać szkodliwe treści np. poprzez prowadzony przez instytut NASK serwis Dyżurnet.pl, a także aplikację mObywatel.
Obywatelski asystent AI, cyfryzacja administracji i rodzina polskich modeli językowych
Pomysł na AI w urzędach przywodzi na myśl budowę systemów wirtualnych asystentów zarówno dla obywatela, jak i takich, które wspomagałyby pracę urzędnika. Do takich rozwiązań potrzebna jest kontynuacja rozwoju polskich LLM-ów (Large Language Model) czyli tak zwanych PLLM-ów, takich jak Bielik i PLLuM.
Mamy obecnie nie jeden model, tylko rodzinę polskich modeli językowych, bardzo różnych rozmiarów. Od małych, które liczą sobie 7-12 miliardów parametrów, do dużych, liczących 70 miliardów i więcej. Mamy modele ogólnego użytku i specjalistyczne, a także takie, które są adaptowane językowo. To znaczy bazujemy na działających modelach wielojęzycznych, które douczamy o dane polskojęzyczne – wyjaśniała Agnieszka Karlińska, adiunktka z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Jednak to nie tylko wielkie spektakularne modele tworzą rewolucję AI w polskiej administracji.
– Nie możemy także pomijać wagi drobnych, wydawałoby się, przyczółków. Mówię tu o niepozornie wyglądających rozwiązaniach technologicznych, które rozwiązują jakiś mały problem, na przykład, żeby dokument został odpowiednio zaklasyfikowany w EZD albo trafił do właściwej skrzynki mailowej. Nie możemy zapominać o tych mniej spektakularnych rozwiązaniach, które potrafią zmienić bardzo dużo – podkreślał Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji. Takie rozwiązania to duże ułatwienie dla urzędników, które niczym puzzle budują obraz cyfrowej, bardziej sprawnej administracji państwowej. Jednocześnie wirtualny asystent, o którym była mowa wcześniej, nie jest pieśnią przyszłości. Prototyp takiego narzędzia już powstał i efekty tego projektu są testowane. Jest szansa, że będzie on wdrażany już w przyszłym roku.
– Na tym etapie, to jeszcze nie jest wdrożenie – mówiła o projekcie Agnieszka Karlińska. – Trwają testy asystenta obywatelskiego, czyli narzędzia, które pozwala wyszukiwać odpowiedzi na pytania z domen gov.pl. Proponuje on odpowiedzi na podstawie bazy wiedzy generowanej właśnie z domeny państwowej, więc ryzyko halucynacji (przekłamań) jest niewielkie.
Droga do rozwoju sztucznej inteligencji w Polsce
Współorganizowana przez instytut badawczy NASK konferencja była ważnym krokiem w kształtowaniu odpowiedzialnych i innowacyjnych podejść do regulacji oraz wykorzystania sztucznej inteligencji, co może przynieść korzyści zarówno obywatelom, jak i gospodarce. Z ust wiceministra cyfryzacji Dariusza Standerskiego padła ważna zapowiedź uproszczenia procedur kontrolnych oraz wsparcia finansowego projektów AI, w tym z funduszy unijnych. Eksperci podkreślali w debatach ogromne znaczenie współpracy ponad podziałami politycznymi oraz promocję innowacyjnych projektów.
Wyróżnione aktualności
Jak nie dać się trollom? Kampania o dezinformacji Ministerstwa Cyfryzacji i NASK
Ministerstwo Cyfryzacji, wspólnie z NASK, stworzyło ogólnopolską kampanię społeczną. Poprzez dialogi trolli, w obrazowy sposób pokazano mechanizmy i cele dezinformacji, zachęcając do świadomego ograniczania jej rozprzestrzeniania.
Cyfrowe priorytety polskiej prezydencji w UE
Zapraszamy do rejestracji by wziąć udział w kolejnej edycji Szczytu Cyfrowego IGF Polska. Spotkanie odbędzie się w tym tygodniu w Warszawie. Będzie to idealna okazja, by dokładnie poznać cyfrowe priorytety przyszłorocznej polskiej prezydencji w Radzie Unii Europejskiej.
Nowa funkcja w mObywatelu dla większej ochrony dzieci
W aplikacji mObywatel wprowadzono nową opcję zgłaszania nielegalnych treści w ramach usługi „Bezpiecznie w sieci”. Dzięki tej funkcji użytkownicy mogą szybko i łatwo zgłaszać niepokojące materiały znalezione w internecie, w szczególności treści związane z nieodpowiednimi zachowaniami wobec dzieci.
Nagroda specjalna XXX-lecia Forum Teleinformatyki dla EZD RP
Podczas jubileuszowej edycji Forum Teleinformatyki dyrektor instytutu badawczego NASK odebrał nagrodę specjalną za EZD RP. System do elektronicznego zarządzania dokumentacją wdrożono już w ponad 820 podmiotach administracji publicznej.
Najnowsze aktualności
Mocny powrót oszustw na "niedostarczoną paczkę"
Wigilia za kilka dni, czekamy na ostatnie paczki ze świątecznymi prezentami. Firmy kurierskie uwijają się, by zdążyć na czas, a cyberprzestępcy – by wykorzystać przedświąteczny rejwach. Uważaj więc na SMS-y lub e-maile o konieczności uregulowania drobnej niedopłaty za paczkę bądź zaktualizowania swoich danych, by ci ją dostarczono.
Naukowcy z NASK wykryli krytyczną lukę bezpieczeństwa w urządzeniach znanego producenta!
Wyobraź sobie, że ktoś przejmuje kontrolę nad twoim inteligentnym oświetleniem, włącza czajnik, gdy nie ma cię w domu lub zdalnie uruchamia grzejnik, zupełnie bez twojej wiedzy. Brzmi jak thriller technologiczny? Tak mogło się zdarzyć kilku milionom osób, ale zapobiegli temu naukowcy z NASK.
Jak ochronić dzieci przed szkodliwymi treściami? Pornografią, hejtem, patoinfluencerami
„Dziecko oddziela od treści pornograficznych tylko jedna plansza – mam 18 lat, wchodzę dalej. To patologiczna sytuacja” – mówił podczas Kongresu OSE 2024 wiceminister cyfryzacji Michał Gramatyka, zapowiadając założenia projektu ustawy o ochronie małoletnich przed szkodliwymi treściami w internecie. Marta Witkowska z NASK zwróciła uwagę na nowe, niepokojące trendy wśród młodzieży, m.in. digital self-harm, normalizację hejtu.