Strona głównaAktualnościNajciekawsze tematy konferencji „Technosfera przemysłu przyszłości”

Najciekawsze tematy konferencji „Technosfera przemysłu przyszłości”

-

KATEGORIE:

W ostatni czwartek, 15 maja naukowcy, przedstawiciele firm i organizacji branżowych dyskutowali o komercyjnym wykorzystaniu nowoczesnych technologii. Konferencja „Technosfera przemysłu przyszłości” odbyła się w Varso Place w ramach obchodów Światowego Dnia Społeczeństwa Informacyjnego. Obrady podzielone były na 4 bloki: pierwszy z nich dotyczył sztucznej inteligencji, drugi – cyberbezpieczeństwa, trzeci – zastosowań medycznych, a czwarty – wykorzystania nowych technologii w energetyce.

Prezes Wiesław Paluszyński otwiera konferencję „technosfera przemysłu przyszłości”

Sztuczna inteligencja w Przemyśle 5.0

Na początku skoncentrowaliśmy się na wyzwaniach etycznych, społecznych i prawnych związanych z komercyjnym wykorzystaniem AI na coraz większą skalę. Inwestorzy angażują  swoje środki obecnie właściwie wyłącznie w projekty wykorzystujące sztuczna inteligencję – podkreślił Borys Stokalski (Versabox, RETHINK). Dwa typy dominujących przedsięwzięć to te zakładające autonomiczną produkcję lub autonomiczne produkty. Inwestorzy chętnie angażują się także nadal w projekty R&D.

W tej chwili rozwój technologiczny kierowany jest jedynie maksymalizacją zysku – zwróciła uwagę Izabella Krzemińska (Orange Innovation Poland). W przypadku firm jest to maksymalizacja przychodu, w przypadku użytkowników – maksymalizacja przyjemności. Tymczasem powinno się uwzględniać równolegle minimalizację kosztów nowych technologii – czyli negatywnych oddziaływań na środowisko i ludzi. Uczestnicy debaty zgodzili się, że obligatoryjne przeznaczenie choćby niewielkiego procenta nakładów na neutralizację negatywnych skutków byłoby bardzo pomocne.

Każda nowa technologia powoduje bowiem ogromne zmiany społeczne – jak podkreślił dr Konrad Maj (Centrum Innowacji Społecznych i Technologicznych HumanTec). Upowszechnienie się smartfonów przyniosło nie tylko szybki i łatwy dostęp do zasobów sieci oraz niezliczone aplikacje, które ułatwiają nam życie, ale także spowodowało wzrost samotności. Spędzamy w tej chwili zdecydowanie więcej czasu sami (ze smartfonem w ręce) niż z innymi ludźmi. W związku z rozwojem generatywnej sztucznej inteligencji młodzi ludzie za chwilę będą mieli jeszcze bardziej zafałszowany obraz życia rówieśników, bo wszyscy będą mogli generować dowolne treści wizualne z użyciem własnego wizerunku.

Uczestnicy bloku I (od lewej): Izabella Krzemińska, Carlo Paolicelli, Robert Kroplewski, Konrad Maj, Borys Stokalski i Michał Nowakowski (moderator)

Nie powinniśmy jednak bać się rozwoju technicznego per se. Sama technologia jest neutralna, dopiero jej wykorzystanie przez człowieka może być etyczne lub nie – podkreśliła Izabella Krzeminska. Użycie (zwłaszcza komercyjne) technologii powinno więc być obwarowane szczegółowymi zasadami, natomiast nauka i prace badawcze nie potrzebują takich regulacji.

Na przepisy dotyczące wykorzystania AI postanowiła szczególnie postawić Unia Europejska. Jak zaznaczył mec. Kroplewski (Fundacja Platforma Przemysłu Przyszłości) władze w Brukseli uznały, że nie możemy konkurować z gigantami technologicznymi, jak Chiny czy USA, pod względem ilości przetwarzanych danych, nakładów na rozwój AI czy warunków ekonomicznych przyciągających najlepszych specjalistów. To, co może nas – Europejczyków – wyróżniać to sztuczna inteligencja godna zaufania. Wdrażanie i wykorzystanie AI w krajach europejskich regulować ma niedawno przyjęty przez Parlament Europejski AI Act.  Czy te obwarowania i próba zapewniania etycznego, sprawiedliwego wykorzystania sztucznej inteligencji przyniosą oczekiwane korzyści? Tego zapewne dowiemy się za ok. dwa lata, kiedy AI Act w pełni wejdzie w życie.

Cyberbezpieczeństwo w dobie technologii przełomowych

Drugi blok konferencji także odwoływał się w znaczącym stopniu do regulacji prawnych. Paneliści dyskutowali bowiem o kwestiach cyberbezpieczeństwa. Prof. Piotr Dela (Akademia Marynarki Wojennej im. Bohaterów Westerplatte) zwrócił uwagę, że nie mamy obecnie doktryn związanych stricte z bezpieczeństwem informacji – mimo intensywnie prowadzonej przez Rosję wojny hybrydowej. Michał Kanownik ze Związku Cyfrowa Polska przypomniał, że od czasu agresji Rosji na Ukrainę rośnie gwałtownie liczba cyberataków na polskie instytucje – zarówno prywatne, jak i publiczne.

Oddziaływania obcych służb mogą odbywać się nie tylko przez zainfekowanie systemów kluczowych dla państwa – zauważył płk. Piotr Dela. Każdy z nas – także decydenci ­ ma w swoich osobistych komputerach czy smartfonach masę informacji, które mogą być odpowiednio wykorzystane przez służby obcych państw. Dane te mogą służyć do szantażu i przez to – wymuszenia określonych informacji lub działań bądź też do dyskredytacji osób, które nie poddały się wpływom i kontynuują niekorzystane (z punktu widzenia obcego wywiadu) poczynania. Byliśmy także świadkami niespodziewanych śmierci specjalistów posiadających znaczące informacje. Ze względu na kontekst można zaliczyć je do skrytobójstwa.

Paneliści bloku II (od lewej): Piotr Dela, Agnieszka Gryszczyńska, Michał Kanownik, Jarosław Homa, Łukasz Rumowski, Grzegorz Łunkiewicz, Mirosław Kutyłowski, Marek Jasiński, Marek Ujejski (moderator)

Poza zagrożeniami bezpieczeństwa państwa mnożą się ataki na firmy prywatne. Z punktu widzenia biznesu bardzo niebezpieczne są ataki na modele sterowania produkcją lub implementacja złośliwego oprogramowania w chipach, zwłaszcza tych dostarczanych z terenu krajów azjatyckich. Dlatego zaniechanie produkcji podzespołów na terenie Unii czy Stanów Zjednoczonych niesie także duże ryzyko – zaznaczył Jarosław Homa z Centrum Cyberbezpieczeństwa na Politechnice Śląskiej w Gliwicach.

Ważnym elementem działań przestępczych jest wykorzystanie kryptowalut w celu wymuszenia okupu, omijania sankcji i prania brudnych pieniędzy. Ta forma płatności może także nie być bezpieczna dla zwykłych użytkowników, ponieważ klucz przechowywany jest u odbiorcy – podkreślał prof. Mirosław Kutyłowski (Zakład Kryptologii NASK). Na szczeblu unijnym podejmowane są rozmaite działania w celu regulacji rynku kryptowalut – np. w 2023 roku wprowadzono rozporządzenie MICA (Markets in Crypto-Assets Regulation). Działa także platforma wymiany kryptowalut, która ma identyfikować nadawcę i beneficjenta, zgodnie z regulacjami AML (anti-money laundering). Problem w tym, że technicznie da się obejść te zabezpieczenia – stwierdził prof. Kutyłowski.

Skuteczne przeciwdziałanie szkodliwym działaniom w sieci przez organy ścigania wymaga wykwalifikowanych zespołów wielospecjalistycznych, odpowiedniego ekosystemu regulacji i współpracy międzynarodowej. Działania prokuratury w zakresie przestępstw dokonywanych w cyberprzestrzeni są zdecydowanie bardziej rozległe niż wynika to z przekazów medialnych – mówiła prof. Agnieszka Gryszczyńska (Katedra Prawa Informatycznego Wydziału Prawa i Administracji UKSW). Zwykle przeprowadzamy skomplikowane, wielowątkowe operacje, a o wynikach informujemy dopiero w komunikatach zbiorczych – tak, jak było to w przypadku akcji skierowanej przeciwko pedofilom. Nie wszystkie działania rozgrywające się w sieci otrzymują także klasyfikację przestępstw internetowych. Jeśli na przykład na skutek ataku na system szpitala umiera pacjent, sprawa taka może zostać zaklasyfikowana jako narażenie na bezpośrednie niebezpieczeństwo utraty życia albo ciężkiego uszczerbku na zdrowiu – wyjaśniała Agnieszka Gryszczyńska.

Biorąc pod uwagę skalę ataków na infrastrukturę państwową i prywatną – warto postawić pytanie: czy Polska jest liderem czy outsiderem w zakresie cyberbezpieczeństwa? Grzegorz Łunkiewicz (kierownik działu Bezpieczeństwa Teleinformatycznego w COIG S.A.) wskazał, że odpowiedź zależy od wskaźników, na których się opieramy. Ranking National Cyber Security Index wskazuje, że mamy doskonałych specjalistów i najwyższy wynik ogólny poziomu cyberbezpieczeństwa. Z drugiej jednak strony badanie to pokazuje bardzo niskie nakłady na ochronę systemów informatycznych i szkolenia oraz niski poziom rozwoju cyfrowego (mierzony na poziomie rozwoju e-administracji).

Przełomowe technologie w medycynie

Trzeci blok konferencji dotyczył wykorzystania nowoczesnych technologii w medycynie. Jednym z ważniejszych obecnie trendów jest tworzenie wirtualnych ludzkich bliźniaków. (Virtual Human Twins, VHT). Są to zintegrowane, wieloskalowe, wieloczasowe i wielodyscyplinarne reprezentacje fizjologii i patologii człowieka utworzone dla przeprowadzania symulacji komputerowych – wyjaśniał Marian Bubak. Dr inż. Konrad Ciecierski z NASK tworzy np. indywidualne mapy ludzkiego mózgu, które pomagają w bezpiecznym przeprowadzeniu operacji przy chorobach układu pozapiramidowego. Te struktury zlokalizowane są w głębi mózgu i w trakcie operacji należy ominąć wiele innych istotnych regionów funkcjonalnych. Każdy z nas ma nieco inaczej ukształtowane i zlokalizowane ośrodki mózgowe – więc w przypadku każdego pacjenta tworzona jest osobna, unikatowa reprezentacja wirtualna mózgu. Do analizy elektrycznej poszczególnych obszarów i stworzenia takiej indywidualnej mapy mózgu zaprzęgane są… sztuczne sieci neuronalne (sic!), zdolne do uczenia głębokiego.

Uczenie głębokie wykorzystywane jest także przez kolejnego z prelegentów bloku – Michała Grzeszczyka z Sano Centre for Computational Medicine – min. do precyzyjnego szacowania wagi urodzeniowej z uwzględnieniem wszystkich danych z badań USG. Dzięki tej metodzie udało się otrzymać zdecydowanie bardziej wiarygodne predykcje niż w przypadku tradycyjnego pomiar obwodu głowy, klatki piersiowej i długości kości piszczelowej płodu. Innym obszarem, w którym sieci neuronalne wspomagają decyzje diagnostyczne jest nadciśnienie płucne. Na podstawie analizy obrazów rezonansu magnetyczne sztuczna inteligencja w sposób nieinwazyjny może wskazać wystąpienie rozróżnić nadciśnienie tętnicze od nadciśnienia płucnego. Alternatywą jest dość ryzykowny zabieg cewnikowania serca.

Dyskusja z prelegentami III bloku; na scenie od lewej: Marian Bubak, Anna Drożdż, Michał Grzeszczyk, Konrad Ciecierski, Kazimierz Cięciak, Rafał Niżankowski

Odmienne podejście do wykorzystania nowych technologii w medycynie zaprezentowała Anna Drożdż – także reprezentująca Centrum Sano. Otóż ona swoje badania opiera na zdefiniowanych algorytmach, które mają za zadanie wyodrębnienie rozmaitych danych diagnostycznych z różnych źródeł – historii choroby, danych diagnostycznych i laboratoryjnych. Ta strategia umożliwia uniknięcie problemu braku wyjaśnialności, związanego z wykorzystaniem sieci neuronalnych.

Na znaczenie jakości, integralności i interoperacyjności danych dokumentujących historię pacjenta zwrócił uwagę także prof. Niżankowski. W tej chwili system ochrony zdrowia funkcjonuje w oparciu o wiele aplikacji, często ze sobą niepowiązanych. Ich oddzielne wypełnianie nie tylko uniemożliwia całościowe spojrzenie na pacjenta, ale także wymaga od lekarza ogromnego nakładu czasu i zaangażowania. Niewiele czasu pozostaje na kontakt bezpośredni z pacjentem i przeprowadzenie dogłębnego wywiadu. Nowe technologie i aplikacje, bez zmian organizacyjnych nie usprawnia funkcjonowania przychodni i szpitali – podkreślił prof. Niżankowski.

Technologie przyszłości w energetyce

Model cyfrowego bliźniaka wykorzystywany jest nie tylko w medycynie, ale także w energetyce. Krzysztof Kołodziejczyk z firmy Globema opowiedział w jaki sposób tworzone są cyfrowe reprezentacje sieci energetycznych, zawierające poszczególne elementy systemu, ich umiejscowienie, szczegółową charakterystykę i współzależności. Do stworzenia takiego modelu wykorzystuje się oczywiście dane cyfrowe zbierane na bieżąco, ale także informacje, które trzeba pozyskać w terenie i historyczne dane, zgromadzone w formie papierowej i nieustrukturyzowanej. Na rynku funkcjonują obecnie różne aplikacje, które wspierają ekstrahowanie danych z dokumentów papierowych lub umożliwiają bezdotykowe (głosowe) wprowadzanie informacji do systemu w terenie, co bardzo wspomaga pracę techników.

Istotnym dla energetyki modelem są także lokalne prognozy pogody. Siła wiatru czy nasłonecznienia ma bowiem wpływ na ilości energii pozyskiwane ze źródeł odnawialnych. Firmy energetyczne przewidują nie tylko produkcję energii, ale także jej zużycie, które zmienia się w różnych okresach doby, w zależności od aktywności mieszkańców lub przedsiębiorstw. Nakładając na siebie dane dotyczące popytu i podaży energii można stworzyć lokalne obszary bilansowania. System taki pozwala na szybką, optymalną rekonfigurację sieci.

Takie rozwiązania wydają się konieczne, bo obecnie mamy problem z nadmiernym napięciem w sieciach niskiego napięcia w związku z dużą liczbą prosumentów. Prezentacja Michała Radeckiego dotycząca tego problemu wzbudziła gorącą dyskusję na sali. Spór dotyczył tego, kto powinien być odpowiedzialny za regulowanie napięcia w sieciach niskiego napięcia, do których należą prosumenci – czy powinna to być odpowiedzialność jednostkowych użytkowników czy firm zarządzających siecią? Wśród dyskutantów przeważała ta ostatnia opinia.

Od lewej: prowadzący panel Wojciech Stęplewski, Krzysztof Kołodziejczyk, Michał Radecki, Marcin Fice

Innym wyzwaniem związanym ze współczesnymi sieciami energetycznymi jest ich rozrost i skokowe zwiększenie liczby urządzeń. W związku z tym istotne okazało się zautomatyzowanie nastaw urządzeń zabezpieczających (wykonywane kiedyś ręcznie). Michał Radecki z firmy Mikronika przedstawił takie rozwiązanie – wdrażane w konsorcjum z Tauron Dystrybucja na terenie oddziału Będzin jako projekt unijny.

Po więcej informacji – zapraszamy do nagrania z konferencji „Technosfera przemysłu przyszłości”: https://www.youtube.com/live/04EkZweqkYo?si=1rNLsj_OMefnY8zL

Najważniejsze informacje

Informacje z oddziałów