Tempo rozwoju technologii, wykorzystujących sztuczną inteligencję, wymusza na społeczeństwach przyjmowanie ram i reguł, według których będą one stosowane. 19 stycznia w trakcie webinarium Konferencji Lewiatan eksperci dyskutowali na temat przyszłości AI. USA i Chiny spierają się o miano pierwszej potęgi w tej dziedzinie. Bezprecedensowe nakłady inwestycyjne planuje Unia Europejska. Wśród wyzwań są etyczne postawy ludzi, wykorzystujących nowoczesne narzędzia np. do manipulowania społeczeństwem. Szanse… ogranicza tylko wyobraźnia. W debacie brał udział zastępca dyrektora NASK Robert Król.
W budżecie europejskim w programie odbudowy po kryzysie wywołanym pandemią COVID-19 ponad 20% środków ma być przeznaczonych na szeroko rozumianą agendę cyfrową. Jej składnikiem jest sztuczna inteligencja. Mówił o tym podczas debaty europoseł Adam Jarubas, który pracuje w komisji Parlamentu Europejskiego, zajmującej się regulacjami dotyczącymi AI. „W wypowiedziach komisarzy UE pojawiła się nawet wartość 200 mld euro w ciągu najbliższych 10 lat, zmobilizowanych na rozwój sztucznej inteligencji. Chodzi nie tylko o środki publiczne, ale też o biznes” – mówił europoseł.
Jak mówił wicedyrektor NASK Robert Król, wiele rozwiązań opartych AI jest niewątpliwym udogodnieniem i realnym wsparciem dla obywateli. Jako przykład podał nową funkcję aplikacji mObywatel, w której automatyczny system ocenia zdjęcie dołączone do wniosku o wydanie dowodu osobistego. Takie zdjęcie musi spełniać określone kryteria, m.in. prezentować twarz w taki sposób, aby można było dokonać analizy biometrycznej. Najwięcej przypadków odrzucenia wniosków o dowód wynika właśnie z tego, że zdjęcie jest zrobione nieprawidłowo (np. złe ustawienie głowy, nieodpowiedni kontrast, zakryta część twarzy). Automatyczny system oparty na AI pomaga obywatelowi samodzielnie zrobić odpowiednie zdjęcie telefonem.
Sporą część dyskusji eksperci poświęcili na aspekty etyczne stosowania AI. Wśród nich mowa była o standardach, nad którymi pracuje Unia Europejska, a które zmierzają do zobowiązania twórców narzędzi opartych na sztucznej inteligencji do implementowania w nich zasad etycznych. To zagadnienie nie jest jednak proste, co wyraźnie pokazuje doświadczenie firm, które analizowały je w ramach projektowania autonomicznych samochodów. W badaniach ankietowych Moral Machine, prowadzonych przez Massachusetts Institute of Technology, badani byli proszeni o ocenę decyzji, podejmowanych przez autonomiczne samochody w sytuacjach zagrożenia życia, gdy od wykonanego manewru zależy to, kto ucierpi w wypadku. „Kiedy pytano programistów, którzy tworzą te rozwiązania, wśród odpowiedzi dominowało przekonanie, że zginąć powinien kierowca. Ale kiedy się pyta kierowców, co powinien zrobić ten samochód w tej sytuacji, to okazuje się, że ratować kierowcę” – mówił wicedyrektor NASK Robert Król.
To było jedną z przyczyn, dla których doszło do zahamowania prac nad rozwojem całkowicie autonomicznych pojazdów osobowych, które miałyby poruszać się po drogach publicznych. „Wybrano zamiast tego model wsparcia kierowcy automatycznymi systemami, czyli zdecydowano się na rozwój samochodów autonomicznych generacji 3 i 4, uznając, że na generację 5, czyli w pełni autonomiczną, nie jesteśmy jeszcze gotowi. Wykorzystanie całkowicie autonomicznych pojazdów na razie ograniczy się do zamkniętych, odizolowanych przestrzeni, np. terenów zakładów przemysłowych” – powiedziała uczestnicząca w debacie prof. Aleksandra Przegalińska, filozofka, futurolog, zajmująca się sztuczną inteligencją. Badania samochodów przypomniały ludzkości po prostu, że nie ma jednoznacznego rozwiązania znanego od dawna filozofom dylematu wagonika, czyli eksperymentu myślowego, w którym należy podjąć decyzję o skierowaniu rozpędzonego do zabójczej prędkości wagonika na jeden dwóch torów – ten, na którym znajduje się jedna bliska osoba lub drugi, na którym jest więcej ludzi, ale obcych.
Odpowiedzialność za ewentualne szkody, dokonane w wyniku użycia narzędzia zawierającego komponent sztucznej inteligencji nie są jednak kwestią abstrakcyjną. Jak przypomniał europoseł Adam Jarubas, niedawno w Holandii doszło do politycznego trzęsienia ziemi, w wyniku którego do dymisji podał się rząd premiera Marka Rutte. A było to związane z niesłusznym oskarżeniem wielu obywateli przez holenderskie urzędy o wyłudzenie świadczeń społecznych. W analizach „wyłudzeń” urzędnicy wspierali się narzędziami wykorzystującymi sztuczną inteligencję.
Obawy może budzić też to, jak tego typu narzędzia analizy wykorzystują autorytarne reżimy, które analizują zachowanie obywateli w celu ograniczenia ich swobód.
Debata „Sztuczna inteligencja - szanse, zagrożenia, wyzwania” odbywała się online. Uczestniczyli w niej przedstawiciele firm, zrzeszonych w Konfederacji Lewiatan.