Techniki XAI (wyjaśnialne uczenie maszynowe, ang. explainable artificial intelligence) oferują narzędzia pozwalające na pogłębioną analizę modeli predykcyjnych, też pod kątem identyfikacji potencjalnych słabości. Właśnie o tym podczas seminarium 11 października opowie prof. Przemysław Biecek. Zapraszamy na wykład "Red-Teaming modeli AI, czyli jak i po co wykorzystywać XAI do analizy modeli predykcyjnych".
Modele AI są coraz częściej wykorzystywane w systemach informatycznych. Ale czy są one najsilniejszym czy najsłabszym ogniwem tych systemów? Analizując bazę incydentów związanych z funkcjonowaniem modeli AI (np. https://incidentdatabase.ai/) łatwo zauważyć, że podatności w tych modelach mogą być wykorzystywane w szerokiej liczbie potencjalnych ataków na systemy IT. Techniki XAI (wyjaśnialne uczenie maszynowe, ang. explainable artificial intelligence) oferują narzędzia pozwalające na pogłębioną analizę modeli predykcyjnych, też pod kątem identyfikacji potencjalnych słabości modeli. Podczas referatu Przemysław Biecek przedstawi najpopularniejsze techniki analizy modeli XAI na bazie monografii Explanatory Model Analysis (https://ema.drwhy.ai/), oraz omówi kilka podstawowych ataków i obron na modele oraz wyjaśnienia modeli predykcyjnych.
Zapraszamy do udziału osobiście w NASK lub online (przez YouTube), po wcześniejszej rejestracji pod tym linkiem.
Przemysław Biecek jest profesorem na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej (MiNI@Politechnika Warszawska). Ukończył statystykę matematyczną na PAM@WUST oraz inżynierię oprogramowania na CSM@WUST. Swoją naukową misję realizuje poprzez opracowywanie metod i narzędzi do odpowiedzialnego uczenia maszynowego, godnej zaufania sztucznej inteligencji i niezawodnej inżynierii oprogramowania. Interesuje się modelowaniem predykcyjnym dużych i złożonych danych, wizualizacją danych i interpretowalnością modeli. Jego głównym projektem badawczym jest DrWhy.AI – narzędzia i metody do eksploracji i wyjaśniania modeli predykcyjnych.