Jednym z priorytetów Ministerstwa Sprawiedliwości podczas prezydencji Polski w UE będzie zastosowanie sztucznej inteligencji w wymiarze sprawiedliwości, zapowiedział w środę 17 kwietnia wiceminister Krzysztof Śmiszek na konferencji organizowanej przez NASK. - W tym procesie rozwoju cywilizacyjnego musimy być niezwykle ostrożni i uważni, by nasza godność, tożsamość, prawo do prywatności nie ucierpiały – mówił.
Drugi dzień SECURE 2024, konferencji na temat cyberbezpieczeństwa, organizowanej przez Państwowy Instytut Badawczy NASK, upłynął pod znakiem sztucznej inteligencji.
Rozwijająca się szybko AI wkracza w bardzo konkretne sfery naszego życia, sfery działania państwa. To może prowadzić do naruszania praw człowieka, np. swobody pozyskiwania informacji, prawa do tożsamości, prawa do bycia równo traktowanym.
Sztuczna inteligencja w sądach
Zastosowania sztucznej inteligencji należy się spodziewać także w wymiarze sprawiedliwości.
Cieszymy się, że ten instrument będzie pomagał polskim sędziom, np. przygotowywać wyroki, uzasadnienia, ale z drugiej strony istnieje gigantyczne niebezpieczeństwo, że wygenerowany przez AI wyrok w konkretnej sprawie będzie opierać się na błędnych założeniach
– powiedział wiceminister Śmiszek.
Grożą nam ślimaczące się procesy?
Wiceminister sprawiedliwości zwrócił też uwagę, że powszechność AI może doprowadzić do niekończących się spraw sądowych.
Mogę sobie wyobrazić sytuację, w której adwokat podważa argumenty drugiej strony, mówiąc, że one są wygenerowane przez AI. W ten sposób można w nieskończoność przeciągać procesy sądowe, żeby jak najdłużej trwały
– zobrazował Śmiszek. A przecież każdy człowiek ma prawo do sprawiedliwego rozpatrzenia sprawy bez nieuzasadnionej zwłoki.
Deepfake, szkody osobiste i przepisy, które nas chronią
Wymiar sprawiedliwości będzie coraz częściej konfrontowany z sytuacjami, kiedy nasza tożsamość, wizerunek, głos będą wykorzystywane do różnych celów, czy to komercyjnie, czy żeby zrobić nam na złość albo „wkręcić” nas w jakąś historię, zauważył wiceminister Śmiszek.
Przedstawił nagranie deepfake wykorzystujące jego głos, w którym rzekomo przekonywał, że skomplikowane hasła są niepotrzebnym utrudnieniem, a jego ulubione to „55555”.
– Dla mnie to trochę straszne, bo to był mój głos. A ja wcale tego nie powiedziałem – podkreślił Śmiszek. – Jak to możliwe, że nie miałem nic wspólnego z tą wypowiedzią, a mój głos został wykorzystany do tego, żeby wprowadzać kogoś w błąd? – pytał. I przytoczył kolejny przykład wykorzystania AI – swojej siostry, która jest lektorką. Okazuje się, że jej głos został wykorzystany w internecie do reklamowania różnych rzeczy w miejscach, o których nie miała pojęcia.
Wiceszef resortu sprawiedliwości przypomniał, że mamy do dyspozycji przepisy, które mogą nas ochronić, np. przepisy kodeksu karnego, art. 190a par. 2, który mówi o tym, że grozi kara od 6 m-cy do 8 lat za podszywanie się pod inna osobę, wykorzystywanie jej wizerunku, jej innych danych osobowych lub innych danych, za pomocą których jest publicznie identyfikowalna, przez co wyrządza się jej szkodę osobistą. Mamy też do dyspozycji prawo cywilne - art. 23 wymienia dobra osobiste, które podlegają ochronie, np. tożsamość, dobre imię.
AI dyskryminuje i łamie prawo
Krzysztof Śmiszek mówił też o tym, że jednym z praw człowieka jest prawo do równego traktowania. Modele AI są natomiast znane z posługiwania się stereotypami.
AI będzie promowała utrwalone wizerunki kobiet czy mężczyzn, czy mniejszości, bo taki jest wizerunek społeczny
– wyjaśnił. Może to stanowić problem np. w procesach rekrutacyjnych. Jeśli oddamy proces rekrutacyjny w ręce AI, może się okazać, że to, z czym walczymy za pomocą przepisów prawa, może być wdrażane przez AI – przestrzegł.
Skoro nie da się zatrzymać rozwoju technologii, ważna jest wspólna praca różnych środowisk: prawników, legislatorów, inżynierów.
Musimy być o krok do przodu, bo teraz AI jest o krok przed ustawodawcami
- podkreślił wiceminister sprawiedliwości.