Ekspertka w akcji Wiedza Nie Ma P艂ci 呕aneta 艁ucka-Tomczyk (Orange)

Sztuczna Inteligencja. Jaki wp艂yw maj膮 na ni膮 stereotypy?

O tym, jak sztuczna inteligencja wp艂ywa na nasze 偶ycie, jakie niesie ze sob膮 niesko艅czone mo偶liwo艣ci, ale i r贸wnie niesko艅czone zagro偶enia, w debacie z cyklu Wiedza Nie Ma P艂ci z Olg膮 Kozierowsk膮, Prezesk膮 Fundacji Sukcesu Pisanego Szmink膮 i pomys艂odawczyni膮 Klubu Champions of Change, rozmawiaj膮: 呕aneta 艁ucka-Tomczyk (Orange), Magdalena Kasiewicz (Microsoft Polska) i Agnieszka Piechocka (SAS).

Olga Kozierowska: Jak my艣licie, sztuczna inteligencja niesie ze sob膮 wi臋cej ryzyk czy wi臋cej mo偶liwo艣ci?

Magdalena Kasiewicz: Powiedzia艂abym, 偶e i to i to – mamy przed sob膮 ogromne mo偶liwo艣ci, ale te偶 stoimy przed wielkimi ryzykami, kt贸re dotycz膮 wielu warstw, i z kt贸rymi musimy sobie poradzi膰. Zaczyna si臋 od zrozumienia problemu i na艣wietlenia go, np. takich w艂a艣nie debat, ale potrzebne s膮 te偶 regulacje, wsparcie instytucji i edukacja os贸b zaanga偶owanych w budowanie algorytm贸w AI. A ta grupa jest tak ogromna, 偶e edukacja musi by膰 szeroka. Dodatkowo potrzebne s膮 narz臋dzia, kt贸re wy艂apuj膮 uprzedzenia algorytm贸w. Nie mo偶emy jednak p贸j艣膰 w stron臋, w kt贸rej przera偶enie i obawa przed ryzykiem zatrzymaj膮 rozw贸j. AI jest nam potrzebna z wielu przyczyn, m.in. ekologicznych, bez jej rozwoju sobie nie poradzimy. Patrzmy wi臋c w przysz艂o艣膰 optymistycznie, jednocze艣nie wiedz膮c, jak bardzo istotne s膮 edukacja i zrozumienie problem贸w.

Olga Kozierowska: Na tych, kt贸rzy tworz膮 algorytmy AI, spoczywa wielka odpowiedzialno艣膰. Na pewno wiele os贸b, my艣l膮c o sztucznej inteligencji, widzi obraz z film贸w science fiction, jak roboty przejmuj膮 nasze 偶ycie. Je艣li te roboty b臋d膮 dobrze nauczane, to mniej b臋dziemy si臋 ich obawia膰. Ale je艣li b臋d膮 nauczone 藕le i rzeczywi艣cie b臋d膮 powiela膰 dzisiejsze b艂臋dy my艣lenia i stereotypy? Co wtedy?

呕aneta 艁ucka-Tomczyk: Bardzo dobrze, 偶e o tym m贸wimy. Popkultura buduje obraz, kt贸ry sprawia, 偶e boimy si臋 sztucznej inteligencji, jest np. Skynet z 鈥濼erminatora鈥, kt贸ry pr贸buje przej膮膰 w艂adz臋 nad 艣wiatem. Cz臋sto do tego w艂a艣nie sprowadzamy AI, ale, jak powiedzia艂a艣, mamy du偶o bardziej przyziemne problemy, czyli wykluczenia. Co mo偶na z tym zrobi膰? Unia Europejska kusi si臋 tutaj o AI Act, kt贸ry pojawi艂 si臋 w kwietniu, gdzie s膮 zdefiniowane r贸偶ne ryzyka dotycz膮ce sztucznej inteligencji, m.in. takie, kt贸re w og贸le wykluczaj膮 jej stosowanie, np.social scoring, kt贸ry jest w Chinach, gdzie w zale偶no艣ci od tego, jak system nas oceni, zale偶y czy wsi膮dziemy do poci膮gu albo do samolotu. S膮 te偶 systemy wysokiego ryzyka, w kt贸rych ze wzgl臋du na sztuczn膮 inteligencj臋 nie mog膮 by膰 realizowane nasze podstawowe prawa, jak dost臋p do medycyny i edukacji, czy procesy rekrutacyjne. To jest zwi膮zane w艂a艣nie z uprzedzeniami algorytm贸w, kt贸re nie do ko艅ca wynikaj膮 z samych algorytm贸w. S膮 te偶 mniejsze ryzyka, np. 偶e nie zostaniemy poinformowani, 偶e rozmawiamy z botem, a nie z prawdziwym cz艂owiekiem. No i s膮 te偶 pomniejsze ryzyka, w przypadku kt贸rych Unia Europejska wydaja tylko zalecenia, 偶e sztuczna inteligencja powinna by膰 zgodna z prawem, przestrzega膰 warto艣ci etycznych, by膰 solidna i jako艣ciowa. Wydaje mi si臋, 偶e takie wst臋pne regulacje pozwalaj膮 t臋 sztuczn膮 inteligencj臋 w pewien spos贸b okie艂zna膰 w tym zakresie, o kt贸rym m贸wisz.

Olga Kozierowska: Unia Europejska chce wprowadzi膰 regulacje, ale je艣li nie wprowadz膮 ich USA czy Chiny, to jak to si臋 prze艂o偶y na nasz膮 konkurencyjno艣膰?

Agnieszka Piechocka: My艣l臋, 偶e zasady, kt贸re Unia ma zamiar wprowadzi膰, nie godz膮 szczeg贸lnie w innowacyjno艣膰. Social scoring nie jest najlepsz膮 drog膮鈥

Olga Kozierowska: No w艂a艣nie, to, co 呕aneta m贸wi艂a o Chinach, mnie przerazi艂o – 偶e mog艂abym nie wsi膮艣膰 do samolotu, bo nie spe艂niam jakich艣 norm.

Agnieszka Piechocka: Albo nie dostaj臋 kredytu, bo kiedy艣 przesz艂am na czerwonym 艣wietle.

Ekspertka w akcji Wiedza Nie Ma P艂ci: Agnieszka Piechocka, SAS
Ekspertka w akcji Wiedza Nie Ma P艂ci: Agnieszka Piechocka, SAS

Olga Kozierowska: Przera偶a ten brak empatii i emocji, brak inteligencji spo艂ecznej, ale trudno tego wymaga膰 od robot贸w. Mo偶e w przysz艂o艣ci.

Agnieszka PIechocka: Mo偶e w przysz艂o艣ci. Na razie one s膮 tak m膮dre, jak my jeste艣my w stanie je zaprogramowa膰. Sztuczna inteligencja dzia艂a tak, jak dzia艂aj膮 ludzie – jak decyduj膮, my艣l膮, jak j膮 tworz膮. Ja patrz臋 na ni膮 do艣膰 optymistycznie, wierz臋, 偶e przyniesie nam du偶o dobrego, mimo tych wszystkich ryzyk. Wspomniany AI Act nie zabrania stosowa膰 rozwi膮za艅, kt贸re stwarzaj膮 ryzyka, tylko daje wskaz贸wki, jak robi膰 to m膮drze, odpowiedzialnie i etycznie. To nie utrudni pracy i nie powstrzyma innowacyjno艣ci, a dla firm mo偶e by膰 wskaz贸wk膮, jak prowadzi膰 biznes z korzy艣ci膮 dla wszystkich.

Olga Kozierowska: Kontakt z chatbotem cz臋sto bywa bardzo irytuj膮cy. Na przyk艂ad dzwoni膮c gdzie艣 opisuj臋, z jakim problemem dzwoni臋, a chatbot nie rozumie, prosi o powt贸rzenie albo m贸wi, 偶e nie ma takiej opcji. Co wtedy zrobi膰?

Magdalena Kasiewicz: Dobre algorytmy powinny rozpoznawa膰 intencje i emocje, przez s艂owa i ton g艂osu, dlatego warto je wyra偶a膰. Dobrze skonstruowany bot powinien umie膰 rozpozna膰, 偶e sytuacja go przerasta i przekierowa膰 rozmow臋 do w艂a艣ciwej osoby. Cz臋sto, rozmawiaj膮c z botem, staramy si臋 wyra偶a膰 bez emocji, a to nie ma sensu. Je艣li chcemy nauczy膰 je empatii, to powinni艣my rozmawia膰 z nimi jak z cz艂owiekiem. Oczywi艣cie to trudne, bo odpowiedzi bota mog膮 si臋 wydawa膰 absurdalne, ale wyra偶anie emocji mo偶e pom贸c.

Olga Kozierowska: Nawet przeklinanie?

Magdalena Kasiewicz: Na przyk艂ad.

Ekspertka w akcji Wiedza Nie Ma P艂ci: Magdalena Kasiewicz (Microsoft)
Ekspertka w akcji Wiedza Nie Ma P艂ci: Magdalena Kasiewicz (Microsoft Polska)

Olga Kozierowska: 呕aneta, do Orange pewnie klienci cz臋sto dzwoni膮.

呕aneta 艁ucka-Tomczyk: Tak, sporo. Mamy chatbota Maksa, kt贸ry obs艂uguje ok. 12 mln po艂膮cze艅 rocznie. Przygotowywali艣my go do pracy ponad rok. Rozpoznaje kilkana艣cie intencji rozm贸wc贸w i z ka偶dym miesi膮cem ich przybywa. Je艣li nie rozumie, z czym klient dzwoni, to przekierowuje go do konsultanta. Natomiast przeklinanie do bota jest troch臋 ryzykowne, bo on uczy si臋 dzi臋ki interakcjom. Oczywi艣cie je艣li jest odpowiednio zaprogramowany, to nie problemu, ale je艣li kto艣 nie przewidzia艂 takiej interakcji, co na szcz臋艣cie zdarza si臋 coraz rzadziej, to mo偶e to spowodowa膰 pewne skrzywienie w danych treningowych鈥

Olga Kozierowska: Czyli nauczy si臋 przeklina膰?

呕aneta 艁ucka-Tomczyk: Mo偶e si臋 nauczy膰. S膮 takie przyk艂ady, np. chatbot uruchomiony przez Microsoft na Twitterze w 2016 r.

Olga Kozierowska: Pozw贸lmy tu Magdzie si臋 broni膰.

Magdalena Kasiewicz: Nie musz臋 si臋 broni膰, to nie jest atak. Jedn膮 z zasad odpowiedzialnego budowania AI jest transparentno艣膰, m贸wienie o pope艂nianych b艂臋dach. Tamto wydarzenie sprzed 5 lat to by艂y tak naprawd臋 pierwsze pr贸by. W tej chwili od 3 lat pracujemy nad narz臋dziami, kt贸re identyfikuj膮 i pomagaj膮 developerom wykry膰 b艂臋dy. To du偶y post臋p. Do tej pory stosowali艣my je sami, ale teraz udost臋pnili艣my je jako open source dla wszystkich developer贸w. Edukacja jest tutaj naprawd臋 wa偶na, bo developer musi umie膰 korzysta膰 z tych narz臋dzi, analizowa膰, sprawdza膰, jakich danych brakuje. Model budowania takiego inteligentnego rozwi膮zania ma sw贸j cykl. Cz臋sto my艣limy, 偶e uczenie to ten najwa偶niejszy moment, ale to nie tak. Najwa偶niejsze jest zbieranie danych, okre艣lenie, kt贸re s膮 wa偶ne. Tych danych jest mn贸stwo, a uczenie si臋 AI to jest d艂ugi cykl i na ka偶dym etapie niezb臋dne s膮 narz臋dzia, kt贸re pozwalaj膮 to zrobi膰 poprawnie.

Olga Kozierowska: Wr贸膰my jeszcze do tego, czego nauczy艂 si臋 chatbot na Twitterze. Jak powiedzia艂a艣, najwa偶niejszy nie jest ten moment wprowadzenia danych, tylko tego, jak potem dalej prowadzi si臋 t臋 edukacj臋.

Magdalena Kasiewicz: Tak, ten bot si臋 uczy艂 od u偶ytkownik贸w Twittera. Nauczy艂 si臋 tego, czego staramy si臋 unika膰, w bardzo szybkim tempie. To te偶 pokazuje pewne zagro偶enie zwi膮zane z algorytmami – one si臋 nie tylko szybko ucz膮, ale te偶 mog膮 mie膰 bardzo du偶膮 skal臋 dotarcia. Jak w sprawie Cambridge Analitics, kt贸re wp艂ywa艂o na polityk臋 艣wiatow膮. To jest najbardziej niepokoj膮ce, ten wp艂yw spo艂eczny i jego zakres. Dlatego zamkn臋li艣my tamtego bota po 16 godzinach, 偶eby zminimalizowa膰 jego wp艂yw.聽

Olga Kozierowska: Wp艂yw to chyba s艂owo-klucz, kiedy m贸wimy o ryzykach. Bo AI mo偶e wp艂yn膮膰 na wybory, nie tylko konsumenckie, ale te偶 polityczne, mo偶e spowodowa膰 mniejsze i wi臋ksze konflikty. Jakie s膮 do艣wiadczenia SAS w tym zakresie?

Agnieszka Piechocka: Staramy si臋 wspomaga膰 firmy, 偶eby ten wp艂yw sztucznej inteligencji pomaga艂 im w prowadzeniu dzia艂alno艣ci, ale 偶eby to by艂o robione odpowiedzialnie. Przez d艂ugi czas zajmowa艂am si臋 nadu偶yciami i w艂a艣nie wykorzystaniem sztucznej inteligencji do walki z nadu偶yciami. Tutaj jednym z ciekawych zastosowa艅 jest walka z deep fake鈥檃mi, kt贸re stanowi膮 du偶y problem, bo manipulacja wideo i g艂osem staje si臋 coraz bardziej idealna. Mo偶na to wykorzysta膰 do 艣miesznych filmik贸w, a mo偶na do pope艂niania przest臋pstw. By艂a niedawno taka g艂o艣na sprawa, 偶e w jednej firmie podrobiono g艂os szefa. Oszust zadzwoni艂 do pracownika i kaza艂 mu wykona膰 du偶y przelew. Poniewa偶 pracownik us艂ysza艂 g艂os swojego szefa, wykona艂 przelew i pieni膮dze znikn臋艂y. Widzimy wi臋c, 偶e sztuczna inteligencja ma ogromne mo偶liwo艣ci, mo偶e kreowa膰 rzeczywisto艣膰, podrabia膰 j膮 i ni膮 manipulowa膰.聽

Obejrzyj ca艂o艣膰 debaty poni偶ej!

Sukces pierwszej edycji kampanii Wiedza Nie Ma P艂ci pokaza艂, jak wa偶ne jest wzmacnianie pozycji kobiet w debacie publicznej i zmniejszanie dysproporcji w obecno艣ci ekspertek w mediach. Badania z maja 2021 roku pokazuj膮, 偶e w programach publicystycznych i informacyjnych ponad 70% zapraszanych specjalist贸w stanowi膮 m臋偶czy藕ni. Niestety, te proporcje zmieniaj膮 si臋 nieznacznie na przestrzeni lat 鈥 chcemy to zmieni膰! Gor膮co komentowane debaty #WiedzaNieMaP艂ci z udzia艂em top mened偶erek i kobiet biznesu obejrza艂o niemal聽trzy miliony u偶ytkownik贸w.

W drugiej ods艂onie kampanii Wiedza Nie Ma P艂ci Fundacji Sukcesu Pisanego Szmink膮 w ramach Klubu Champions of Change, Olga Kozierowska i zaproszone przez ni膮 ekspertki skupiaj膮 si臋 na tym, jak odkry膰 i wykorzysta膰 swoje talenty, zoptymalizowa膰 prac臋 zdaln膮 i wykorzysta膰 mo偶liwo艣ci, jakie daje nam automatyzacja w biznesie. Uczestniczki debat rozmawiaj膮 te偶 o stereotypach, kt贸rym cz臋sto ulegamy zupe艂nie nie艣wiadomie, oraz wychowywaniu dzieci w taki spos贸b, by ich od nas nie przejmowa艂y. Olga Kozierowska, prezeska Fundacji Sukcesu Pisanego Szmink膮 i inicjatorka Klubu Champions of Change, zaprosi艂a do rozmowy pi臋tna艣cie specjalistek, kt贸rych wiedza pomo偶e nam odnale藕膰 si臋 w obecnej rzeczywisto艣ci. Prowadz膮cym trzech spotka艅 jest dziennikarz Jaros艂aw Ku藕niar.

ZOBACZ WSZYSTKIE DEBATY TUTAJ!

Zarejestruj si臋 aby otrzyma膰 newsletter

 

Na tej stronie wykorzystujemy cookies. Uzyskujemy do nich dost臋p w celach analitycznych oraz w celu zapewnienia prawid艂owego dzia艂ania strony. Je偶eli nie wyra偶asz na to zgody, mo偶esz zmieni膰 ustawienia w swojej przegl膮darce. Zobacz wi臋cej w Polityce Prywatno艣ci.

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close