Ekspertka w akcji Wiedza Nie Ma Płci Żaneta Łucka-Tomczyk (Orange)

Sztuczna Inteligencja. Jaki wpływ mają na nią stereotypy?

O tym, jak sztuczna inteligencja wpływa na nasze życie, jakie niesie ze sobą nieskończone możliwości, ale i równie nieskończone zagrożenia, w debacie z cyklu Wiedza Nie Ma Płci z Olgą Kozierowską, Prezeską Fundacji Sukcesu Pisanego Szminką i pomysłodawczynią Klubu Champions of Change, rozmawiają: Żaneta Łucka-Tomczyk (Orange), Magdalena Kasiewicz (Microsoft Polska) i Agnieszka Piechocka (SAS).

Olga Kozierowska: Jak myślicie, sztuczna inteligencja niesie ze sobą więcej ryzyk czy więcej możliwości?

Magdalena Kasiewicz: Powiedziałabym, że i to i to – mamy przed sobą ogromne możliwości, ale też stoimy przed wielkimi ryzykami, które dotyczą wielu warstw, i z którymi musimy sobie poradzić. Zaczyna się od zrozumienia problemu i naświetlenia go, np. takich właśnie debat, ale potrzebne są też regulacje, wsparcie instytucji i edukacja osób zaangażowanych w budowanie algorytmów AI. A ta grupa jest tak ogromna, że edukacja musi być szeroka. Dodatkowo potrzebne są narzędzia, które wyłapują uprzedzenia algorytmów. Nie możemy jednak pójść w stronę, w której przerażenie i obawa przed ryzykiem zatrzymają rozwój. AI jest nam potrzebna z wielu przyczyn, m.in. ekologicznych, bez jej rozwoju sobie nie poradzimy. Patrzmy więc w przyszłość optymistycznie, jednocześnie wiedząc, jak bardzo istotne są edukacja i zrozumienie problemów.

Olga Kozierowska: Na tych, którzy tworzą algorytmy AI, spoczywa wielka odpowiedzialność. Na pewno wiele osób, myśląc o sztucznej inteligencji, widzi obraz z filmów science fiction, jak roboty przejmują nasze życie. Jeśli te roboty będą dobrze nauczane, to mniej będziemy się ich obawiać. Ale jeśli będą nauczone źle i rzeczywiście będą powielać dzisiejsze błędy myślenia i stereotypy? Co wtedy?

Żaneta Łucka-Tomczyk: Bardzo dobrze, że o tym mówimy. Popkultura buduje obraz, który sprawia, że boimy się sztucznej inteligencji, jest np. Skynet z „Terminatora”, który próbuje przejąć władzę nad światem. Często do tego właśnie sprowadzamy AI, ale, jak powiedziałaś, mamy dużo bardziej przyziemne problemy, czyli wykluczenia. Co można z tym zrobić? Unia Europejska kusi się tutaj o AI Act, który pojawił się w kwietniu, gdzie są zdefiniowane różne ryzyka dotyczące sztucznej inteligencji, m.in. takie, które w ogóle wykluczają jej stosowanie, np.social scoring, który jest w Chinach, gdzie w zależności od tego, jak system nas oceni, zależy czy wsiądziemy do pociągu albo do samolotu. Są też systemy wysokiego ryzyka, w których ze względu na sztuczną inteligencję nie mogą być realizowane nasze podstawowe prawa, jak dostęp do medycyny i edukacji, czy procesy rekrutacyjne. To jest związane właśnie z uprzedzeniami algorytmów, które nie do końca wynikają z samych algorytmów. Są też mniejsze ryzyka, np. że nie zostaniemy poinformowani, że rozmawiamy z botem, a nie z prawdziwym człowiekiem. No i są też pomniejsze ryzyka, w przypadku których Unia Europejska wydaja tylko zalecenia, że sztuczna inteligencja powinna być zgodna z prawem, przestrzegać wartości etycznych, być solidna i jakościowa. Wydaje mi się, że takie wstępne regulacje pozwalają tę sztuczną inteligencję w pewien sposób okiełznać w tym zakresie, o którym mówisz.

Olga Kozierowska: Unia Europejska chce wprowadzić regulacje, ale jeśli nie wprowadzą ich USA czy Chiny, to jak to się przełoży na naszą konkurencyjność?

Agnieszka Piechocka: Myślę, że zasady, które Unia ma zamiar wprowadzić, nie godzą szczególnie w innowacyjność. Social scoring nie jest najlepszą drogą…

Olga Kozierowska: No właśnie, to, co Żaneta mówiła o Chinach, mnie przeraziło – że mogłabym nie wsiąść do samolotu, bo nie spełniam jakichś norm.

Agnieszka Piechocka: Albo nie dostaję kredytu, bo kiedyś przeszłam na czerwonym świetle.

Ekspertka w akcji Wiedza Nie Ma Płci: Agnieszka Piechocka, SAS
Ekspertka w akcji Wiedza Nie Ma Płci: Agnieszka Piechocka, SAS

Olga Kozierowska: Przeraża ten brak empatii i emocji, brak inteligencji społecznej, ale trudno tego wymagać od robotów. Może w przyszłości.

Agnieszka PIechocka: Może w przyszłości. Na razie one są tak mądre, jak my jesteśmy w stanie je zaprogramować. Sztuczna inteligencja działa tak, jak działają ludzie – jak decydują, myślą, jak ją tworzą. Ja patrzę na nią dość optymistycznie, wierzę, że przyniesie nam dużo dobrego, mimo tych wszystkich ryzyk. Wspomniany AI Act nie zabrania stosować rozwiązań, które stwarzają ryzyka, tylko daje wskazówki, jak robić to mądrze, odpowiedzialnie i etycznie. To nie utrudni pracy i nie powstrzyma innowacyjności, a dla firm może być wskazówką, jak prowadzić biznes z korzyścią dla wszystkich.

Olga Kozierowska: Kontakt z chatbotem często bywa bardzo irytujący. Na przykład dzwoniąc gdzieś opisuję, z jakim problemem dzwonię, a chatbot nie rozumie, prosi o powtórzenie albo mówi, że nie ma takiej opcji. Co wtedy zrobić?

Magdalena Kasiewicz: Dobre algorytmy powinny rozpoznawać intencje i emocje, przez słowa i ton głosu, dlatego warto je wyrażać. Dobrze skonstruowany bot powinien umieć rozpoznać, że sytuacja go przerasta i przekierować rozmowę do właściwej osoby. Często, rozmawiając z botem, staramy się wyrażać bez emocji, a to nie ma sensu. Jeśli chcemy nauczyć je empatii, to powinniśmy rozmawiać z nimi jak z człowiekiem. Oczywiście to trudne, bo odpowiedzi bota mogą się wydawać absurdalne, ale wyrażanie emocji może pomóc.

Olga Kozierowska: Nawet przeklinanie?

Magdalena Kasiewicz: Na przykład.

Ekspertka w akcji Wiedza Nie Ma Płci: Magdalena Kasiewicz (Microsoft)
Ekspertka w akcji Wiedza Nie Ma Płci: Magdalena Kasiewicz (Microsoft Polska)

Olga Kozierowska: Żaneta, do Orange pewnie klienci często dzwonią.

Żaneta Łucka-Tomczyk: Tak, sporo. Mamy chatbota Maksa, który obsługuje ok. 12 mln połączeń rocznie. Przygotowywaliśmy go do pracy ponad rok. Rozpoznaje kilkanaście intencji rozmówców i z każdym miesiącem ich przybywa. Jeśli nie rozumie, z czym klient dzwoni, to przekierowuje go do konsultanta. Natomiast przeklinanie do bota jest trochę ryzykowne, bo on uczy się dzięki interakcjom. Oczywiście jeśli jest odpowiednio zaprogramowany, to nie problemu, ale jeśli ktoś nie przewidział takiej interakcji, co na szczęście zdarza się coraz rzadziej, to może to spowodować pewne skrzywienie w danych treningowych…

Olga Kozierowska: Czyli nauczy się przeklinać?

Żaneta Łucka-Tomczyk: Może się nauczyć. Są takie przykłady, np. chatbot uruchomiony przez Microsoft na Twitterze w 2016 r.

Olga Kozierowska: Pozwólmy tu Magdzie się bronić.

Magdalena Kasiewicz: Nie muszę się bronić, to nie jest atak. Jedną z zasad odpowiedzialnego budowania AI jest transparentność, mówienie o popełnianych błędach. Tamto wydarzenie sprzed 5 lat to były tak naprawdę pierwsze próby. W tej chwili od 3 lat pracujemy nad narzędziami, które identyfikują i pomagają developerom wykryć błędy. To duży postęp. Do tej pory stosowaliśmy je sami, ale teraz udostępniliśmy je jako open source dla wszystkich developerów. Edukacja jest tutaj naprawdę ważna, bo developer musi umieć korzystać z tych narzędzi, analizować, sprawdzać, jakich danych brakuje. Model budowania takiego inteligentnego rozwiązania ma swój cykl. Często myślimy, że uczenie to ten najważniejszy moment, ale to nie tak. Najważniejsze jest zbieranie danych, określenie, które są ważne. Tych danych jest mnóstwo, a uczenie się AI to jest długi cykl i na każdym etapie niezbędne są narzędzia, które pozwalają to zrobić poprawnie.

Olga Kozierowska: Wróćmy jeszcze do tego, czego nauczył się chatbot na Twitterze. Jak powiedziałaś, najważniejszy nie jest ten moment wprowadzenia danych, tylko tego, jak potem dalej prowadzi się tę edukację.

Magdalena Kasiewicz: Tak, ten bot się uczył od użytkowników Twittera. Nauczył się tego, czego staramy się unikać, w bardzo szybkim tempie. To też pokazuje pewne zagrożenie związane z algorytmami – one się nie tylko szybko uczą, ale też mogą mieć bardzo dużą skalę dotarcia. Jak w sprawie Cambridge Analitics, które wpływało na politykę światową. To jest najbardziej niepokojące, ten wpływ społeczny i jego zakres. Dlatego zamknęliśmy tamtego bota po 16 godzinach, żeby zminimalizować jego wpływ. 

Olga Kozierowska: Wpływ to chyba słowo-klucz, kiedy mówimy o ryzykach. Bo AI może wpłynąć na wybory, nie tylko konsumenckie, ale też polityczne, może spowodować mniejsze i większe konflikty. Jakie są doświadczenia SAS w tym zakresie?

Agnieszka Piechocka: Staramy się wspomagać firmy, żeby ten wpływ sztucznej inteligencji pomagał im w prowadzeniu działalności, ale żeby to było robione odpowiedzialnie. Przez długi czas zajmowałam się nadużyciami i właśnie wykorzystaniem sztucznej inteligencji do walki z nadużyciami. Tutaj jednym z ciekawych zastosowań jest walka z deep fake’ami, które stanowią duży problem, bo manipulacja wideo i głosem staje się coraz bardziej idealna. Można to wykorzystać do śmiesznych filmików, a można do popełniania przestępstw. Była niedawno taka głośna sprawa, że w jednej firmie podrobiono głos szefa. Oszust zadzwonił do pracownika i kazał mu wykonać duży przelew. Ponieważ pracownik usłyszał głos swojego szefa, wykonał przelew i pieniądze zniknęły. Widzimy więc, że sztuczna inteligencja ma ogromne możliwości, może kreować rzeczywistość, podrabiać ją i nią manipulować. 

Obejrzyj całość debaty poniżej!

Sukces pierwszej edycji kampanii Wiedza Nie Ma Płci pokazał, jak ważne jest wzmacnianie pozycji kobiet w debacie publicznej i zmniejszanie dysproporcji w obecności ekspertek w mediach. Badania z maja 2021 roku pokazują, że w programach publicystycznych i informacyjnych ponad 70% zapraszanych specjalistów stanowią mężczyźni. Niestety, te proporcje zmieniają się nieznacznie na przestrzeni lat – chcemy to zmienić! Gorąco komentowane debaty #WiedzaNieMaPłci z udziałem top menedżerek i kobiet biznesu obejrzało niemal trzy miliony użytkowników.

W drugiej odsłonie kampanii Wiedza Nie Ma Płci Fundacji Sukcesu Pisanego Szminką w ramach Klubu Champions of Change, Olga Kozierowska i zaproszone przez nią ekspertki skupiają się na tym, jak odkryć i wykorzystać swoje talenty, zoptymalizować pracę zdalną i wykorzystać możliwości, jakie daje nam automatyzacja w biznesie. Uczestniczki debat rozmawiają też o stereotypach, którym często ulegamy zupełnie nieświadomie, oraz wychowywaniu dzieci w taki sposób, by ich od nas nie przejmowały. Olga Kozierowska, prezeska Fundacji Sukcesu Pisanego Szminką i inicjatorka Klubu Champions of Change, zaprosiła do rozmowy piętnaście specjalistek, których wiedza pomoże nam odnaleźć się w obecnej rzeczywistości. Prowadzącym trzech spotkań jest dziennikarz Jarosław Kuźniar.

ZOBACZ WSZYSTKIE DEBATY TUTAJ!

Przeczytaj także