Strona głównaAktualnościNajważniejsze tematy konferencji „Sztuczna inteligencja”

Najważniejsze tematy konferencji „Sztuczna inteligencja”

-

Konferencja „Sztuczna inteligencja”, która rozpoczęła finalny dzień tegorocznych obchodów Światowego Dnia Społeczeństwa Informacyjnego zgromadzała naukowców oraz praktyków biznesu z całej Polski i obfitowała w bardzo ciekawe tematy. Wydarzenie było także częścią Forum Współpracy Edukacji i Biznesu Edumixer.

Znaczenie algorytmów w rozwoju sztucznej inteligencji

Obrady rozpoczęliśmy od panelu poświęconego algorytmom i ich znaczeniu dla sztucznej inteligencji (SI/AI) – a zwłaszcza jej wyjaśnianej formy. Na wstępie prof. Krzysztof Krawiec przypomniał klasyfikację sztucznej inteligencji stworzoną przez Rusella i Norviga. Otóż według tych założeń mamy 4 sposoby rozumienia AI, zależne od tego, czy chcemy oprzeć się na podobieństwie do człowieka czy na racjonalności i w zależności od tego, czy mamy dostęp do procesów logicznych kierujących modelami czy tylko obserwujemy wyniki ich działania. Do AI możemy zaliczyć więc systemy, które 1) myślą jak człowiek, 2) działają jak człowiek 3) myślą racjonalnie lub 4) działają racjonalnie.

W tej chwili w modelach sztucznej inteligencji dominuje uczenie maszynowe, które umożliwia adaptację systemu do środowiska i otrzymywanych danych, co jest jednym z klasycznych wyznaczników inteligencji. Modele działające na bazie uczenia maszynowego zdają się być sztuczną inteligencją w rozumieniu takim, że działają racjonalnie; nie możemy jednak stwierdzić, czy myślą racjonalnie – bo nie wiemy, jakie procesy i algorytmy doprowadziły do ich działania.

Powinniśmy zmierzać do osiągnięcia modelu sztucznej inteligencji, która myśli racjonalnie, czyli zapewnić jej wyjaśnialność. Systemy te powinny operować na wyrażeniach symbolicznych, używając algorytmów i wiedzy dziedzinowej.

W bloku I – ALGORYTMY wzięli udział: prof. Krzysztof Krawiec (Politechnika Poznańska), prof. Marcin Kurdziel (Akademia Górniczo-Hutnicza), prof. Żaneta Świderska-Chadaj (Politechnika Warszawska), Jarosław Kwiecień (CTO w Cancer Center)

Dane – czyli to, co AI lubi najbardziej

W związku z dominującą rola uczenia maszynowego sztuczna inteligencja jest zwykle tak dobra jak dane, które używamy do jej treningu. Drugi blok tematyczny konferencji był poświęcony właśnie sposobom pozyskiwania danych i związanym z tym problemom.

Obecnie wykorzystywane są trzy główne podejścia do zbierania i udostępniania danych. Pierwszy z nich to otwarty dostęp, zalecany lub czasem wymagany w projektach publicznych. Drugi model to federacja danych– czyli scalanie danych z różnych baz. Trzeci sposób wykorzystuje federacyjne uczenie się. W tym schemacie poszczególne jednostki trenują na własnych danych swój indywidualny model AI i przesyłają do bazy centralnej tylko model, a nie same dane. Różne modele są następnie przetwarzane z wykorzystaniem algorytmu federacyjnego uśrednienia.

Wyzwaniem związanym z agregowaniem danych jest to, że w różnych jednostkach czy państwach są one zbierane w odmienny sposób, mogą mieć różna strukturę. Tylko część krajów wdraża centralne repozytoria danych publicznych czy medycznych. Trzeba uważać, żeby zbiór informacji przekazywany do modeli AI nie był stronniczy i dyskryminujący. Wykorzystując dane należy także zadbać o ich anonimizację, tak, żeby informacje szczególnie wrażliwe nie zostały ujawnione.

W bloku II – DANE – wzięli udział prof. Maciej Malawski (Sano Centre for Computational Medicine i AGH Kraków), dr Agnieszka Siennicka (Uniwersytet Medyczny we Wrocławiu), Marcin Sieprawski (Head of Big Data Lab, Software Mind), prof. Artur Kalinowski (Wydział Fizyki Uniwersytetu Warszawskiego), Jolanta Malak (Fortinet)

Czy sztuczna inteligencja jest groźna? – czyli o etycznych i prawnych aspektach wykorzystania AI

Po przerwie przeszliśmy od kwestii technicznych do zagadnień pranych i etycznych związanych z AI. Czy sztuczna inteligencja nas zdominuje i zastąpi czy może jest to kolejna technologia, której wykorzystania powinniśmy się nauczyć? To pytanie było tematem przewodnim trzeciego bloku konferencji.

Wiemy nie od dziś, że wszelkie zmiany technologiczne powodują dwojakie nastroje społeczne: z jednej strony hiperentuzjazm (perspektywę utopijną), z drugiej – ogromne obawy (perspektywę dystopijną). Prowadzący blok tematyczny – ks. prof. Wojciech Grygiel zauważył, że problem sztucznej inteligencji, w przeciwieństwie do wcześniej wdrożonych technologii, najgłębiej dotyka nas jako ludzi i naszego istnienia, stając się przez to wyzwaniem egzystencjalnym i budząc wiele obaw.

Jeśli chodzi o to, czy sztuczna inteligencja jest w stanie w pełni zastąpić ludzki umysł – trzeba odpowiedzieć sobie na pytanie, czy nasz intelekt ma charakter wyłącznie algorytmiczny, czy może cechują go także inne przymioty i zasady działania. Jeśli uznamy, że opieramy się w swoim funkcjonowaniu intelektualnym wyłącznie na algorytmach – mogą one z powodzeniem być realizowane także przez maszyny.

Osobnym pytaniem jest to, czy sztuczna inteligencja będzie nas chciała zastąpić – jeśli będzie w stanie to zrobić. Dyskutanci powoływali się na opinię prof. Tadeusiewicza, który twierdzi, że AI nie ma żadnego celu w zastępowaniu ludzi, nie potrzebuje bowiem środków materialnych ani uznania społecznego. Z drugiej jednak strony mechanizmy ewolucji także nie maja celu, jedynie zasadę działania, która mówi, że „przetrwają najsilniejsi”.

Paneliści omawiali nie tylko przyszłe scenariusze rozwoju AI, ale także regulacje prawne, które już teraz są przyjmowane, żeby nadać ramy i zasady stosowania tej technologii. Rozporządzenia i zalecenia uchwalane na szczeblu unijnym zakładają prymat autonomii i dobrostanu człowieka. Jednak – co ponieśli słuchacze konferencji – nie wiadomo, na ile te przepisy będą skuteczne i na ile ochronią nas przez groźnym lub nieuprawionym wykorzystaniem sztucznej inteligencji.

W bloku III – WYZWANIA ETYCZNE I PRAWNE wzięli udział: ks. prof. Wojciech Grygiel (Uniwersytet Papieski Jana Pawła II w Krakowie), dr Katarzyna Biczysko-Pudełko (Uniwersytet Opolski), dr Joanna Średnicka (Game Changers Academy)

Na co trzeba zwrócić uwagę rozwijając sztuczną inteligencję?

Blok poświęcony strategiom rozwoju sztucznej inteligencji otworzył wykład Pawła Kasprowskiego. Wśród wyzwań bezpośrednio związanych z tworzeniem i wykorzystaniem sztucznej inteligencji wykładowca wskazał wspominana już przez innych prelegentów wyjaśnialność, a także omylność, odpowiedzialność prawną i etyczna za działanie modeli sztucznej inteligencji oraz właściwe określenie celów i ram działania AI.

W tej chwili wiele modeli sztucznej inteligencji działa jak czarna skrzynka – dostarczamy dane i otrzymujemy określony rezultat, ale nie wiadomo jakie algorytmy zostały do tego użyte. Musimy być też świadomi, że nawet najlepsze modele są w niewielkim procencie przypadków omylne. W dodatku błędy popełniane przez AI są zupełnie inne od tych popełnianych przez człowieka i obecnie nie mamy mechanizmów, które skutecznie by je wychwytywały. Trzeba pamiętać, że póki co człowiek jest odpowiedzialny za to, żeby wyznaczyć odpowiednie cele i wszystkie potencjalne ograniczenia w działaniu modelu AI. Nieuwzględnienie pewnych aspektów może skutkować tym, że działanie systemów okaże się bardzo szkodliwe. Jeśli powstaną modele samoewoluujące – potrafiące się rozwijać bez pomocy człowieka i tworzyć kolejne systemy sztucznej inteligencji – powstanie pytanie, czy AI nie zdominuje człowieka.

Mec. Robert Kroplewski wskazał, że do rozwoju AI konieczne są 3 filary: ogromna obliczeniowa, dostęp do dużych woluminów danych i specjalistyczna wiedza ekspertów. W dwóch pierwszych obszarach nie możemy konkurować ze światowymi liderami. Naszym głównym zasobem powinni być więc wysoko wykwalifikowani informatycy. Należy skupić się na promocji i rozwoju tych talentów.

W bloku IV – STRATEGIE ROZWOJU AI – wystąpli: prof. Paweł Kasprowski (Politechnika Śląska), mec. Robert Kroplewski (Pełnomocnik Ministra Cyfryzacji ds. Społeczeństwa Informacyjnego w Kancelarii Prezesa Rady Ministrów), prof. Wojciech Kempa (Politechnika Śląska), dr Marcin Rojszczak (Politechnika Warszawska), prof. Michał Baczyński (Uniwersytet Śląski)

Czego uczyć w dobie generatywnej sztucznej inteligencji?

Podczas panelu przygotowanego przez Radę Sektorową ds. Kompetencji Informatyka dyskutowano o formach edukacji i testowania wiedzy w czasach otwartego dostępu do systemów generatywnej sztucznej inteligencji, takich jak ChatGPT. Jest to istotne nie tylko dla nauczycieli i pracowników akademickich, ale także dla pracodawców chcących weryfikować kompetencje przyszłych pracowników.

Wśród uczestników panelu zdecydowanie przeważał pogląd, że celem edukacji nie powinno być przekazywanie i testowanie encyklopedycznej wiedzy, tylko kompetencji, które mogą być przydatne w przyszłości. Należy do nich praca zespołowa, umiejętność weryfikacji prawdziwości informacji, samodzielne poszerzanie i aktualizacja wiedzy, korzystanie z nowoczesnych rozwiązań, w tym generatywnej sztucznej inteligencji dla skrócenia czasu pracy.

W bloku V – dotyczącym EDUKACJI i KOMPETENCJI SPECJALISTÓW – wystąpili dr inż. Paweł Ksieniewicz (Wydział Informatyki i Telekomunikacji Politechniki Wrocławskiej), Tomasz Kulisiewicz (Sektorowa Rada ds. Kompetencji Informatyka), Tomasz Klekowski(Członek Sektorowej Rady ds. Kompetencji-Informatyka/Akademia im. Leona Koźmińskiego), dr Joanna Mazur (DELab – Digital Economy Lab Uniwersytet Warszawski), dr inż. Paweł Ksieniewicz (Wydział Informatyki i Telekomunikacji Politechniki Wrocławskiej), dr inż. Krzysztof Rychlicki-Kicior (Członek Sektorowej Rady ds. Kompetencji-Informatyka/SoDA – Organizacja Pracodawców Usług IT), dr hab. inż. Tomasz Trzciński (chief scientist Tooploox/Lider Grupy Badawczej IDEAS NCBR, prof. Politechniki Warszawskiej)

Zapraszamy także do zapoznania się zamieszczoną poniżej fotorelacją z wydarzenia.

Najważniejsze informacje

Informacje z oddziałów