Typ_aktualnosc Aktualność
19 Lutego 2025|7 min. czytania

AGI – szansa czy game over dla ludzkości?

Maszyny mogą próbować wygrać z nami za wszelką cenę. Sztuczna inteligencja ma wspierać, a nie zastąpić człowieka. To głos ekspertów i autorytetów, który wybrzmiał podczas paryskiej konferencji na temat sztucznej inteligencji (AI). Znawcy tematu nie mają wątpliwości, że prace nad jej rozwojem muszą być kontrolowane, przemyślane i prowadzić do rozwoju, a nie upadku ludzkości.

Grafika przedstawia futurystyczną, humanoidalną postać z przezroczystym, świetlistym ciałem, wypełnionym siecią energetycznych połączeń, przypominających obwody elektroniczne lub system nerwowy. Postać ma błyszczącą, niemal eteryczną głowę z pulsującym światłem na czole, symbolizującym sztuczną inteligencję. Jej dłonie rozłożone są nad Ziemią, która widziana jest z kosmosu i oświetlona światłami miast. W tle widać cyfrowe elementy, takie jak linie łączące punkty, geometryczne kształty oraz napisy "AI", sugerujące zaawansowaną technologię i sztuczną inteligencję na poziomie AGI (Artificial General Intelligence). Obraz emanuje mistyczną i futurystyczną aurą, symbolizującą potęgę i rozwój AI.
Łuna gradientu wychodząca od dołu

Za nami szczyt AI Action w Paryżu, podczas którego odbyły się pogłębione dyskusje na temat kierunków rozwoju sztucznej inteligencji, idących za tym szans i zagrożeń. Jednym z istotnych wydarzeń szczytu była prestiżowa konferencja International Association for Safe and Ethical AI (IASEAI ’25). W wydarzeniu brała udział elita świata nauki; laureaci nagrody Nobla, Turinga; przedstawiciele najważniejszych ośrodków naukowych. Polskę reprezentował dr hab. inż. Szymon Łukasik, prof. AGH, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK. Jak podkreśla, tematem, który dominował podczas rozmów i spotkań była szczególna troska o kierunek rozwoju AI.   

– Podczas konferencji nie dyskutowaliśmy o zatrzymaniu prac nad rozwojem sztucznej inteligencji. To nie jest cel. Bardzo wyraźnie i stanowczo wybrzmiewała za to opinia, że w większości zadań AGI (Artificial General Intelligence) nie jest nam potrzebna – zwraca uwagę Szymon Łukasik.  

To istotne spostrzeżenie środowiska naukowego i ekspertów. Jak podkreśla ekspert NASK naukowcy wyraźnie opowiedzieli się za traktowaniem sztucznej inteligencji jako narzędzia, które ma wspierać człowieka na poszczególnych odcinkach jego działania, a nie dorównywać mu czy go zastępować.  

Czym jest AGI, czyli maszyna na miarę człowieka 

AGI (Artificial General Intelligence) to sztuczna inteligencja, która działa podobnie jak ludzki umysł. Oznacza to, że może myśleć, planować, uczyć się i adaptować do nieprzewidzianych sytuacji – wszystko w sposób porównywalny do ludzkiej inteligencji.  

Obecne systemy AI, takie jak chatboty czy programy do analizy danych, są wyspecjalizowane i mogą wykonywać tylko konkretne zadania, np. rozpoznawać obrazy, tłumaczyć teksty. AGI byłaby inteligencją uniwersalną – miałaby szeroką zdolność poznawczą, która obejmowałaby różne dziedziny wiedzy, zbliżając się do poziomu ludzkiej ogólnej inteligencji, bez konieczności specjalnego programowania jej do każdej nowej sytuacji.  

W teorii AGI mogłaby rozwijać nowe hipotezy, interpretować świat w sposób nienadzorowany i działać autonomicznie w różnych środowiskach.  

Bieg ku AGI i wizja przepaści 

Niepokój ekspertów odnośnie do rozwoju AGI jest wyraźnie wyczuwalny. Zwracają oni uwagę na to, że tempo rozwoju AI jest zawrotne. Dlatego kluczowe jest zapanowanie nad szybkością i kierunkiem prac. To o tyle trudne, że wśród twórców technologii są nie tylko firmy komercyjne, które walczą o dominacje na rynku, ale także państwa, które często mają sprzeczne interesy i które ze sobą rywalizują – jak USA i Chiny. Wyścig odbywa się ponad naszymi głowami, a to właśnie w kontekście społeczeństw – ich potrzeb i oczekiwań – powinniśmy rozważać możliwości technologii sztucznej inteligencji.  

Szymon Łukasik zwraca uwagę, że cele modeli sztucznej inteligencji muszą być spójne z tym jaki jest interes ludzkości.  

Podczas dyskusji na forum konferencji wyraźnie słychać było głosy za tym, by technologia wspierała człowieka, a nie była jego kopią. Maszyny mogą bowiem próbować wygrać z nami za wszelką cenę. Badacze już teraz sprawdzają, czy modele nakierunkowane na cel, np. wygraną w grze, są w stanie i mają takie skłonności, by wpływać na reguły gry i doprowadzić do swojej wygranej – mówi Szymon Łukasik. 

W paryskiej dyskusji na pierwszy plan wybijały się opinie Maxa Tegmarka, jednego z założycieli Instytutu Future of Life. Zwracał on uwagę na to, że zagrożeniem dla ludzi nie jest świadoma czy „zła” Sztuczna Inteligencja znana z książek i filmów Science Fiction, ale ta kompetentna.  

Regulacje jako hamulec awaryjny  

Tegmark podkreśla, że obecnie brak pomysłu na to jak kontrolować AGI i że niezbędna jest współpraca, by powstrzymać jej nieuregulowanego powstanie oraz stworzenie odpowiednich ram dla twórców technologii. Ekspert powołał się na przykład Chin i USA, które ścigają się w wyścigu tworzenia AGI i apelował, że w interesie obu tych krajów leży przede wszystkim współpraca w zakresie regulacji dotyczących AGI. Najpierw we własnych krajach, a następnie na arenie międzynarodowej. 

Przepisy są potrzebne nie tylko w kontekście AGI, ale także dużych modeli językowych tzw. LLM-ów (ang. Large Language Model). Profesor Steward Russell z Uniwersytetu Kalifornijskiego w Berkeley zaapelował, by żądać od firm, które rozwijają sztuczną inteligencję, żeby ich modele były wyposażone w odpowiednie zabezpieczenia – chroniące przed ich szkodliwym użyciem. Podkreślał, że koszty czy trudności nie są argumentem, by rezygnować z czytelnych i jasnych zasad. W podobnym tonie wypowiada się ekspert z NASK.  

Jako środowisko instytutów zajmujących się bezpieczeństwem AI apelujemy o zapewnienie pełnej transparentności zabezpieczeń, tak aby można je było weryfikować zgodnie z ustalonymi standardami przy użyciu określonych zestawów testów – mówi Szymon Łukasik.  

Zdaniem eksperta z NASK kluczowe jest też wyposażenie algorytmów w mechanizm awaryjnego wyłączania modelu. Jak podkreśla Łukasik, obecnie większość z nich takiego mechanizmu nie posiada. 

AGI nie taka zła, jak ja malują? 

Dążenie do stworzenia AGI może być naturalnym krokiem w rozwoju technologii, prowadzącym do epoki post-ludzkiej, w której inteligencja maszynowa wspiera rozwój cywilizacji na niespotykaną dotąd skalę.  

Wiele argumentów przemawia za rozwojem AGI. Jednym z nich jest szansa na rozwiązanie globalnych problemów jak np. zmiany klimatu (przy czym jednocześnie należy zwrócić uwagę na to jak energochłonny jest rozwój i działanie AI). Zwolennicy technologii mówią też o rozwoju medycyny, technologii, gospodarek, edukacji i automatyzacji rutynowych zadań.  

Społeczna debata nad przyszłością AGI 

Noblista Joseph Stiglitz podkreślał podczas paryskiej konferencji, że główne problemy ze sztuczną inteligencją mają charakter społeczno-polityczny, a nie techniczny, a interesy firm nie są zgodne z interesami społeczeństwa. 

Badania prowadzone w różnych krajach dowodzą, że istotne jest dostosowywanie modeli do lokalnego kontekstu kulturowego – np. łatwiej poddają się one na ataki polegające na wymuszeniu generowania szkodliwych treści, jeśli atak ten jest przeprowadzany w języku, w którym model nie był pod tym kątem zabezpieczany. Ponadto modele generatywnej AI mają tendencję do stronniczości (ang. bias) – tj. odzwierciedlania dominujących tendencji, w tym także uprzedzeń, obecnych w danych treningowych. 

Rozwój sztucznej inteligencji, a zwłaszcza AGI (Artificial General Intelligence), wymaga natychmiastowej i globalnej refleksji nad kierunkiem, w jakim podąża ta technologia. Uczestnicy konferencji, w tym laureaci Nagrody Nobla i Turinga, jasno wskazali, że rozwój AGI bez odpowiedniego reżimu technologicznego i regulacji może znaczne szkody ograniczające płynące z niej korzyści. W wariancie skrajnym AGI wymknie się spod kontroli szybciej niż zdążymy ją zrozumieć.  

Tematy powiązane
Udostępnij ten post

Wyróżnione aktualności

Zaawansowana robotyczna ręka trzyma długopis i wypełnia dokument na biurku. W tle widać ekran komputera z wyświetlonymi danymi, co sugeruje pracę w środowisku technologicznym lub biurowym. Sceneria jest nowoczesna, z chłodnym, futurystycznym oświetleniem.
Aktualność
20 Lutego 2025|4 min. czytania

Ctrl+Alt+Praca: jaką rzeczywistość wygeneruje nam AI?

Gdyby sztuczna inteligencja była Twoim współpracownikiem, to razem pilibyście kawę czy mijalibyście się na korytarzu bez słowa? Jak AI zmieni polski rynek pracy - mówił ekspert z NASK na prestiżowej konferencji unijnych ministrów organizowanej w ramach polskiej prezydencji w UE.

Na pierwszym planie widać uśmiechniętą kobietę w czarnym stroju, trzymającą otwartą teczkę z podpisaną umową. Obok niej siedzi mężczyzna w garniturze, spoglądający w stronę dokumentu. W tle widoczne są flagi Polski i Unii Europejskiej.
Typ_aktualnosc Aktualność
20 Lutego 2025|3 min. czytania

„Klub Cyfrowych Możliwości” - 25 milionów złotych na innowacje w polskich szkołach

W świecie, w którym kompetencje cyfrowe stają się jednym z kluczowych czynników rozwoju, ważne jest, by każdy – niezależnie od miejsca zamieszkania czy płci – miał szansę odkrywać i kształtować swoje zainteresowania w obszarze nowych technologii.

Obraz przedstawia pięć osób - Emilię Wierzbicki, Donalda Tuska, Elona Muska, Anitę Werner, Ewę Drzyzgę na kadrach z nagrań wideo. Zdjęcia są przetworzone cyfrowo, nadając im niebieskawy odcień. Na środku grafiki znajduje się duży napis „DEEPFAKE” w czerwonym kolorze, a poniżej czarny tekst: „Błędy logiczne? To może być DEEPFAKE” z ostatnim słowem wyróżnionym na niebiesko. Całość sugeruje tematykę manipulacji audiowizualnej i wskazuje na możliwość fałszowania treści za pomocą technologii deepfake.
Typ_aktualnosc Aktualność
19 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach logicznych?

W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.

Ciemne ujęcie dłoni piszących na klawiaturze laptopa, symbolizujące cyberbezpieczeństwo i ochronę danych. Nałożona grafika przedstawia cyfrowe elementy interfejsu, w tym świecący zamek i futurystyczne okręgi, sugerujące zabezpieczenia i ochronę prywatności w sieci.
Typ_aktualnosc Aktualność
19 Lutego 2025|2 min. czytania

Cyberoodporny samorząd – jak bronić się przed manipulacją?

Solidna porcja cennych informacji i wskazówek na temat dezinformacji oraz cyberhigieny. Tak w skrócie można określić bezpłatne szkolenia w formie webinarów przeprowadzane przez specjalistów z Instytutu NASK dla samorządów.

Informacje

Najnowsze aktualności

Grafika przedstawiająca sieć połączonych ze sobą ikon dokumentów, folderów i chmur symbolizujących cyfrowy obieg dokumentacji. Na środku widoczne jest logo EZD RP oraz NASK.
Typ_aktualnosc Aktualność
21 Marca 2025|5 min. czytania

Awans cyfrowy dzięki 200 mln zł z funduszy KPO

To będzie skok cyfrowy polskiej administracji. Za blisko 200 milionów złotych zostanie zbudowana chmura SaaS EZD RP dla 300 tys. użytkowników EZD RP oraz zrealizowanych 2000 wdrożeń systemu elektronicznego obiegu dokumentów w jednostkach administracji rządowej i samorządowej. Będzie jednolicie, bezpiecznie i zgodnie z przepisami prawa.

Opis ALT: Grupa osób uczestniczy w spotkaniu w siedzibie NASK. Uczestnicy siedzą przy długim stole konferencyjnym, na którym znajdują się laptopy, notatki i butelki wody. W tle widoczne jest logo NASK na granatowej ściance reklamowej. W centrum kadru znajduje się kobieta w czerwonej marynarce, uśmiechająca się w stronę aparatu, obok niej siedzi kobieta w białej marynarce z neutralnym wyrazem twarzy. Po lewej stronie kadru znajduje się kobieta w okularach z uśmiechem na twarzy.
Typ_aktualnosc Aktualność
21 Marca 2025|7 min. czytania

Czy jeden tweet może naprawdę zmienić Polskę? Szkolenie dla infuencerów w NASK

Czy jeden post w mediach społecznościowych może naprawdę zmienić wynik wyborów? W Stanach Zjednoczonych wystarczyła krótka wypowiedź Taylor Swift, by tysiące niezdecydowanych ruszyło do urn, a w Rumunii niepozorne filmiki na TikToku wywindowały nową twarz na polityczne szczyty. Te przykłady pokazują, jak potężną siłę mają dzisiaj influencerzy i twórcy internetowi.

Agnieszka Gryszczyńska
Typ_aktualnosc Aktualność
20 Marca 2025|3 min. czytania

Trzy pytania o SECURE Summit 2025 do prof. Agnieszki Gryszczyńskiej z Prokuratury Krajowej

Co pomogło ustalić tożsamość sprawców konkretnych cyberprzestępstw? Co sprzyja zwalczaniu cyberprzestępczości i jakie zmiany w prawie należałoby wprowadzić? Prof. ucz. dr hab. inż. Agnieszka Gryszczyńska*, dyrektorka Departamentu ds. Cyberprzestępczości w Prokuraturze Krajowej zaprasza na swój panel i na tę jedyną w swoim rodzaju konferencję.