Sztuczna inteligencja. Szansa czy zagrożenie?

W nowym odcinku podcastu Sukces Pisany Szminką Olga Kozierowska porusza ze swoimi gośćmi temat, który w dzisiejszych czasach nie daje o sobie zapomnieć. Sztuczna inteligencja – jaki ma na nas wpływ i jaki my mamy wpływ na nią? A może nie mamy żadnego? Na te i wiele innych pytań odpowiadają Natalia Hatalska, CEO i założycielka Foresight infuture.institute oraz Arkadiusz Szulczyński, analityk trendów technologicznych i konsumenckich.

Olga Kozierowska: Klikamy w różne rzeczy, korzystamy z różnych narzędzi, a tak naprawdę nie wiemy, jakie to ze sobą niesie konsekwencje… Czy jest się czego bać?

Arkadiusz Szulczyński: Z technologiami cyfrowymi jestem związany od blisko 25 lat i mam wrażenie, że za każdym razem, kiedy pojawia się silna technologia – a AI na pewno jest taką technologią – dzieje się ta sama historia. Najpierw pojawia się hype a potem wizja zagłady. Jest w ogóle takie fajne powiedzenie w kontekście trendów technologicznych, że zagłada kroczy zawsze za hypem. W pewien sposób to dobrze, że tak się dzieje, bo jest to swego rodzaju wentyl bezpieczeństwa, który się w nas uruchamia. Mamy bardzo złe doświadczenia jako ludzkość, do dnia dzisiejszego nie uregulowaliśmy social mediów i wszyscy czujemy, że ma to wpływ na nas, na nasze dzieci, na to jak pracujemy, jak się komunikujemy. I nie zawsze jest to dobry wpływ. Są osoby, które twierdzą, że to jest czynnik, który w głównej mierze decyduje o tym, że młodzi ludzie tak często sobie dzisiaj nie radzą z rzeczywistością. Z drugiej strony nie możemy popadać w skrajność. Technologia jest transparentna, może być dobra, może być zła albo może być trochę dobra i trochę zła. To wszystko zależy od tego, jak my ją wykorzystamy. Im więcej będziemy wiedzieć na temat tej technologii, im więcej będziemy się jej uczyć i rozumieć, jak ona działa, co może, czego nie może, czy jest inteligentna czy może wcale nie aż tak, to tego strachu będzie mniej. Mając świadomość, co ta technologia potrafi, a czego nie, będziemy mogli świadomie i lepiej ją wykorzystywać. I dopiero w dłuższej perspektywie czasu będziemy mogli rozmawiać o tym, czy to jest dobra czy zła technologia.

Olga: Przygotowując się do dzisiejszego spotkania zauważyłam, że tych nagłówków przewidujących zagładę i tych, że technologie nas zniszczą, jest dużo.

Arkadiusz: A z drugiej strony, jak popatrzymy w twarde dane i sprawdzimy, w co się najwięcej inwestuje w kontekście rozwoju algorytmów sztucznych inteligencji, to jest to medycyna. Byłem jakiś czas temu na konferencji, gdzie jedna ze spółek medycznych pokazywała wyniki badań ostatnich testów klinicznych lekarstwa na czerniaka. Ta firma dzięki algorytmom stworzyła lekarstwo, które być może za chwilę – w trzeciej czy w czwartej fazie rozwoju tego nowotworu – będzie niwelowało ryzyko śmierci lub poważnych hospitalizacji o 44%.

Natalia Hatalska: Ja bardzo lubię cytat z Marii Skłodowskiej, że w życiu nie należy się niczego bać, trzeba to tylko zrozumieć. To jest bardzo dobre podejście także w kontekście nowych technologii. Ale nie do końca mogę się zgodzić z tym, że dopiero w perspektywie czasu dowiemy się, czy technologia – typu sztuczna inteligencja – jest dobra czy zła. Każda technologia jest jednocześnie i dobra i zła – to trochę jak w fizyce kwantowej, gdzie mamy kwanty, które jednocześnie są w dwóch pozycjach.

Każda technologia rozwiązuje problem i każda technologia go generuje, nawet jeżeli ten problem oddalony jest w czasie. Takich przykładów mieliśmy w naszej historii mnóstwo. To jest chociażby technologia azbestu, który był fantastyczną technologią, jak go wprowadziliśmy. Był niepalny, wytrzymały, zaczęliśmy z niego budować budynki, a potem się okazało, że jest to technologia, która jest rakotwórcza i dzisiaj ją wycofujemy. W latach 70. mówiliśmy o tym, że nie powinniśmy karmić piersią, że powinniśmy tylko używać mieszanek. Dzisiaj wiemy, że tak naprawdę realnie lepsze wartości – dla funkcjonowania i kobiety i dziecka – ma karmienie piersią. Po II Wojnie Światowej uważaliśmy, że cukier krzepi, a dzisiaj wiemy, że cukier jest zły. Bazujemy zawsze na aktualnym stanie wiedzy.

Mając podejście, że każda technologia rozwiązuje i generuje problem, powinniśmy wdrażać tę technologię i pracować nad jej rozwiązaniami, nad jej rozwojem, ale jednocześnie powinniśmy próbować myśleć o konsekwencjach, które ona będzie miała. To są te zagrożenia.

I zgadzam się, że mamy ogromne wydatki na rozwój sztucznej inteligencji, ale one są nawet 20 tysięcy wyższe niż wydatki, które są przeznaczane na analizowanie problemów, które ta technologia spowoduje.
Technologie rozwijają się zdecydowanie szybciej niż nasze prawo. Chyba jedyną technologią, która została zabezpieczona prawem zanim się rozwinęła, była ta związana z inżynierią genetyczną, ale social media, Internet, itd. nie zostały wyregulowane do momentu, dopóki nie zaczęliśmy ich używać. Dokładnie to samo dzieje się ze sztuczną inteligencją. My dzisiaj nie mamy żadnego prawa, które regulowałoby sztuczną inteligencję. Owszem, pracujemy nad AI – zakończyły się negocjacje na ten temat, ale wdrożenie prawa zajmie nam kilka lat, optymistycznie szacuje się, że zacznie obowiązywać w 2026 roku. Biorąc pod uwagę tempo rozwoju technologii, może być już zdecydowanie za późno. Jeżeli mówimy o rozwoju technologii, powinniśmy też mówić o zagrożeniach i zdawać sobie z nich sprawę.  Każdy z nas ma wpływ na to, jakie decyzje podejmuje i jakich dokonuje wyborów. To oczywiście nie zwalnia ustawodawców od regulowania technologii, ale nas też nie zwalnia od tego, abyśmy podejmowali konkretne działania.