18 października 2018 r. odbyło się spotkanie Klubu Polska 2025+ poświęcone zagadnieniu sztucznej inteligencji. O tym kiedy i jak bardzo ta technologia zmieni naszą rzeczywistość dyskutowali: prof. SGH, dr hab. Andrzej Sobczak z Instytutu Informatyki i Gospodarki Cyfrowej SGH; Karolina Marzantowicz, Chief Technology Officer CEE, IBM oraz prof. Paweł Łuków z Uniwersytetu Warszawskiego.
Dyskusję otworzyło wystąpienie prof. Andrzeja Sobczaka. W swoim wystąpieniu wskazał, że polski rynek stoi przed wieloma wyzwaniami związanymi z wdrożeniami AI (ang. artifical inteligence). Krajowy rynek traktuje wdrożenia pilotażowo lub punktowo. Organizacje, które decydują się na implementację technologii nie mają jasno zdefiniowanych celów i wizji w jaki sposób wykorzystają sztuczną inteligencję. Występują także problemy z budową kompetencji w zakresie AI, a także problemy z danymi w postaci cyfrowej, na których ma działać technologia. Polskie organizacje wciąż są w trakcie procesie digitalizacji i w efekcie szybko zniechęcają się do kontunuowania projektów AI ze względu na brak szybki efektów biznesowych.
Kolejną prelegentką tego wieczoru była Karolina Marzantowicz reprezentująca IBM, a także aktywna eksperta Forum Technologii Bankowych ZBP. Broniła tezy, że sztuczna inteligencja poszerza ludzkie możliwości. Jako przykład zaprezentowała projekt „Debater”, unikalny system sztucznej inteligencji, który może debatować na dowolny, nawet złożony temat np. „Czy powinniśmy subsydiować eksplorację kosmosu?”. Robot bierze udział w debacie publicznej nie tylko bez znajomości tematu z wyprzedzeniem, ale także musi zająć stanowisko, przygotować argumenty, przewidzieć dylematy ludzkie, a także przekonać publiczność do swoich racji.
Ostatnim wystąpieniem przed dyskusją otwartą było wystąpienie prof. Pawła Łuków. Wskazał, że to dane, z których korzystać będzie sztuczna inteligencja, w dużej mierze zdeterminują to, jak będzie rozwijać się wykorzystanie tej technologii, a także, w jaki sposób będzie wpływało to na relacje społeczne. Systemy sztucznej inteligencji pracują na pewnej puli danych. Potrafią się uczyć pozyskując i analizując kolejne dane, ale dylemat etyczny pojawia się gdy automat ma zachować się w sytuacji nietypowej. Może brakować mu wówczas umiejętności przewidywania, kojarzenia, szukania alternatywy.
Prelegent wskazał, że przy wdrożeniach AI powinno się zadbać o odpowiednią atrybucję odpowiedzialności w tych sytuacjach w których system popełni błąd. Profesor przypomniał także, że pojawiają się w literaturze obawy związane z poczuciem izolacji związane z codziennym wykorzystaniem sztucznej inteligencji. Wskazał, że przed implementacją tej kontrowersyjnej technologii powinno się zastanowić czy dane społeczeństwo jest na nią gotowe.
Zapraszamy do obejrzenia przebiegu spotkania w materiale video.