Demo

    7 października odbyła się oficjalna inauguracja Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, CCAI), które rozpoczęło  działalność na Politechnice Warszawskiej. Centrum będzie prowadzić pionierskie prace nad metodami i narzędziami dla wyjaśnialnej sztucznej inteligencji

    Centrum koncentruje się na rozwoju wyjaśnialnej Sztucznej Inteligencji (Explainable Artificial Intelligence, XAI), którą można zrozumieć dzięki technikom interpretowalności, zweryfikować, poprzez formalne testy i ocenę ryzyka oraz kontrolować w zgodzie z wartościami społecznymi i etycznymi.

    W Centrum działać będą cztery zespoły badawcze, w których pracować będzie łącznie ponad 20 naukowców z Polski i z zagranicy. Jedna z grup, zespół BlueTeam-XAI  będzie badała działanie algorytmów w mediach społecznościowych i rozwiazaniach AI oraz ich wpływ na użytkowników. Kolejne dwa zespoły skupią się na wykorzystaniu wyjaśnialnej sztucznej inteligencji w nauce – Physics-XAI – w fizyce oraz BIO-XAI – w biologii, chemii i medycynie. Czwarta grupa, RedTeam-XAI będzie się skupiać na opracowaniu nowych metod interpretacji i walidacji modeli AI.

    – Chcemy, aby w perspektywie pięciu lat nasze Centrum stało się europejskim punktem odniesienia w zakresie wyjaśnialnej, wiarygodnej i przejrzystej sztucznej inteligencji. Dołożymy wszelkich starań, by AI służyła nauce, ludziom i społeczeństwu – powiedział prof. Przemysław Biecek, dyrektor Centrum Wiarygodnej Sztucznej Inteligencji, który pokieruje pracami zespołu RedTeam-XAI.

    Efektem działalności CCAI mają być narzędzia, metody, nowe standardy i metody aplikacji oraz wykształcenie specjalistów zdolnych projektować systemy AI, które budzą zaufanie i wspierają rozwój nauki, technologii i społeczeństwa. Zaufana, wiarygodna, transparentna sztuczna inteligencja przyspieszy implementację rozwiązań w wielu sektorach.

    Dlaczego XAI jest takie ważne

    Popyt na XAI generuje dziś sektor bankowy czy instytucje finansowe, ale także sektor publiczny i wszystkie obszary, w których do implementacji AI potrzebne jest zrozumienie jej procesów decyzyjnych. Bardzo ważnym odbiorcą mogą być Fabryki AI, takie jak Baltic AI Gigafactory, gdzie pracuje się nie tylko nad budową modeli ale i skalowaniem ich działania. Oddziaływanie prac CCAI może mieć nawet zasięg globalny, ze względu na jego unikalny charakter z jednej strony i z drugiej strony – na wzrost nieufności do rozwiązań opartych na generatywnej sztucznej inteligencji, obserwowany na przykład na rynku amerykańskim. Warto zauważyć, że strategicznym partnerem Centrum jest Fraunhofer Heinrich-Hertz-Institut (HHI) z Berlina – jeden z najbardziej prestiżowych ośrodków badawczych sieci Fraunhofer i w ogóle w Europie, specjalizujący się w telekomunikacji, przetwarzaniu sygnałów, wizji komputerowej i sztucznej inteligencji.

    CCAI jest sfinansowane dzięki środkom w wysokości prawie 30 mln zł uzyskanym z programu Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG), które w drodze konkursu przyznała Fundacja na rzecz Nauki Polskiej.

    – Wykorzystywanie AI staje się już powszechne, a zastosowania są coraz bardziej poważne – np. w medycynie czy przemyśle obronnym. To ogromna odpowiedzialność – sztuczna inteligencja może kosztować życie ale też, co chciałbym mocno podkreślić, może pomóc to życie uratować. Dlatego ważne jest, abyśmy inwestowali nie tylko w rozwój technologii, ale również opracowywanie metod jej kontrolowania, tak aby AI była wiarygodna i bezpieczna dla nas wszystkich – powiedział prof. Krzysztof Pyrć, prezes Fundacji na rzecz Nauki Polskiej.

    Nowa jednostka badawcza będzie więc odpowiadać na wyzwania związane z „black box” algorytmów, gdy logika dostarczania rozwiązań pozostaje niejasna nawet dla ich twórców.

    – Żyjemy w czasach, w których to algorytm decyduje o wielu obszarach naszego życia. Chcemy mieć pewność, że działa on właściwie i że decyzje podjęte przy jego udziale będą dobre. AI to nie tylko ryzyko, ale przede wszystkim szanse – podsumował prof. Przemysław Biecek.