Dominika Jajszczak: W QSAR Lab przenosicie chemię z tradycyjnych laboratoriów do przestrzeni wirtualnej w celu digitalizacji przemysłu. Na czym to polega?
Alicja Mikołajczyk: Cyfryzujemy proces projektowania oraz oceny ryzyka chemicznego materiałów i chemikaliów nowej generacji. W ten sposób eliminujemy potrzebę czasochłonnych i kosztownych badań eksperymentalnych. Co więcej przyspieszamy rozwój innowacji i ograniczamy wątpliwe etycznie testy na zwierzętach laboratoryjnych.
Wykorzystujemy metody sztucznej inteligencji, uczenia maszynowego oraz chemii kwantowej do przewidywania właściwości oraz aktywności biologicznej zarówno istniejących, jak i nowo projektowanych materiałów i chemikaliów w przestrzeni komputerowej (jeszcze przed ich syntezą). To podejście jest zgodne z koncepcją Safe-and-Sustainable-by-Design (SSbD), kluczową dla Zielonego Ładu UE i strategii chemicznej na rzecz środowiska wolnego od toksyn.
Skuteczne zarządzanie chemikalia to wyzwanie współczesnego świata?
Rozwój cywilizacji wymusza konieczność wprowadzania na rynek konsumencki coraz większej liczby produktów i bardziej wydajnych technologii. Szacuje się, że globalnie w obrocie znajduje się od 40 000 do 60 000 substancji chemicznych, z czego ponad 60% objętości chemikaliów w UE sklasyfikowano jako niebezpieczne dla zdrowia człowieka, a około 35% jako szkodliwe dla środowiska. Mimo tych alarmujących danych nasza wiedza na temat ekspozycji na substancje chemiczne i ich toksyczności jest nadal ograniczona. Dodatkowo metody gromadzenia i przechowywania danych nie są wystandaryzowane, co utrudnia ich wymianę i skuteczną ocenę ryzyka chemicznego! Skuteczne zarządzanie chemikaliami jest kluczowe dla realizacji wielu, jeśli nie wszystkich celów Zrównoważonego Rozwoju ONZ.
Rozumiem, że przed wprowadzeniem na rynek nowej substancji chemicznej musi ona zostać jakoś prztestowana?
Każdego roku liczba wprowadzanych na rynek substancji chemicznych systematycznie rośnie. Zanim jednak trafią do obrotu, muszą zostać poddane obowiązkowej rejestracji w odpowiednich agencjach regulacyjnych, takich jak np. European Chemicals Agency (ECHA) w Helsinkach. Proces ten wymaga przeprowadzenia szczegółowej oceny ryzyka, która tradycyjnie opiera się na kosztownych i czasochłonnych badaniach eksperymentalnych, często wykorzystujących organizmy kręgowe, np. myszy.
Straszne…
Tradycyjnie, każda nowa substancja chemiczna musi przejść kosztowne i długotrwałe testy toksykologiczne, często z udziałem zwierząt laboratoryjnych. W QSAR Lab zastępujemy te eksperymenty zaawansowanymi metodami komputerowymi na bazie sztucznej inteligencji i uczenia maszynowego, które pozwalają na dokładne przewidywanie właściwości chemikaliów, ich toksyczności oraz wpływu na środowisko. Dzięki temu znacząco redukujemy koszty i czas niezbędny do rejestracji nowych substancji, a jednocześnie minimalizujemy konieczność przeprowadzania testów na zwierzętach, wspierając tym samym rozwój etycznych i zrównoważonych metod badawczych. Zamieniając myszy laboratoryjne na myszy komputerowe chronimy zwierzęta laboratoryjne.
To rewolucja w przemyśle chemicznym, farmaceutycznym i nanotechnologicznym, która pozwala nie tylko na szybsze opracowanie innowacyjnych produktów, ale także na ich projektowanie w sposób zrównoważony i bezpieczny dla ludzi oraz środowiska.
Jak to wygląda w praktyce?
W tradycyjnym laboratorium testowanie setek tysięcy potencjalnych kombinacji związków chemicznych o różnym składzie i właściwościach zajęłoby lata, nie mówiąc o tym, że pochłonęłoby ogrom środków finansowych.
Opracowane przez zespół QSAR Lab narzędzia komputerowe tj. np. platforma nQTb czy Baza NAMs dają możliwość przewidywania właściwości i toksyczności praktycznie nieograniczonej liczby modyfikacji wirtualnie wygenerowanych nanostruktur bazowych z użyciem metod in silico. Przy czym liczba badań nie wpływa na wzrost kosztów procesu. W efekcie zsyntezowane i przebadane zostaną jedynie optymalne związki chemiczne.
Zamiast przeprowadzać tysiące eksperymentów, tworzymy wirtualne modele chemikaliów czy innowacyjnych materiałów, testując ich właściwości komputerowo. Opracowane i zaimplementowane przez nas algorytmy na bazie sztucznej inteligencji analizują miliony możliwych kombinacji, wskazując te najbardziej efektywne i bezpieczne.
Dopiero po takiej analizie wybieramy kilka optymalnych kandydatów do rzeczywistej syntezy i testów laboratoryjnych. Efektem jest znaczące skrócenie czasu badań, obniżenie kosztów oraz eliminacja zbędnych testów na zwierzętach.
Opracowywane przez nas narzędzia mogą służyć również do szybkiego projektowania i wstępnej weryfikacji (na etapie badań przedklinicznych) bezpieczeństwa szerszej grupy związków, np. nanocząstek o zastosowaniach medycznych, na przykład jako nośniki leków lub materiału genetycznego (RNA). Ma to duże znaczenie szczególnie w kontekście obserwowanego zagrożenia nowo pojawiającymi się chorobami (np. COVID-19) czy w przypadku chorób o podłożu środowiskowym.

Jakie największe wyzwania napotykacie, łącząc naukę z biznesem? Czy w Polsce łatwo jest przekształcić naukowe pomysły w konkretne produkty lub usługi?
Łączenie nauki z biznesem w Polsce niesie ze sobą wiele wyzwań związanych z finansowaniem, regulacjami prawnymi czy pozyskaniem wyspecjalizowanych kadr. Z perspektywy spółki spin-off, takiej jak QSAR Lab, jedną z największych barier jest potrzeba utrzymania płynności finansowej przy długotrwałych i kosztownych projektach badawczo-rozwojowych. Realizowane projekty B+R wymagają znaczących rezerw finansowych, zarówno w aspekcie płynnościowym, jak i dla zapewnienia wymaganego wkładu własnego, a długoterminowy spadek przychodów komercyjnych może wpłynąć na stabilność realizowanych badań.
Ponadto przedsiębiorstwa działające na styku nauki i biznesu często napotykają trudności organizacyjne wynikające z różnic w kulturze pracy: naukowcy przywiązują wagę do rzetelności i nowych odkryć, a inwestorzy i kontrahenci oczekują szybkich rezultatów i natychmiastowych wdrożeń.
W Polsce przekształcanie pomysłów naukowych w konkretne produkty lub usługi jest możliwe, ale w praktyce często wymaga intensywnego wsparcia grantowego. Mimo trudności, w Polsce istnieje coraz lepsza infrastruktura wsparcia dla firm łączących naukę z biznesem – mówię tu o parkach naukowo-technologicznych, centrach transferu technologii czy sieciach aniołów biznesu. Dzięki nim łatwiej jest o pierwsze wdrożenia czy pilotaże. Wymaga to jednak odwagi do poszukiwania finansowania zewnętrznego i pełnej mobilizacji zespołu do realizacji planów rozwojowych.
Skoro mowa o mobilizacji zespołu – czy długo budowaliście swój w QSAR Lab?
Rdzeń naszej firmy stanowią Naukowcy z Pracowni Chemoinformatyki Środowiska na czele z Profesorem Tomaszem Puzynem, posiadający ponad 20-letnie doświadczenie i interdyscyplinarną wiedzę ekspercką w zakresie metod sztucznej inteligencji, uczenia maszynowego, chemii kwantowej oraz komputerowej oceny ryzyka chemicznego chemikaliów i materiałów. Zespół ten jest wspierany również przez kadrę managerską z wieloletnim doświadczeniem w biznesie.
Zespół QSAR Lab budowaliśmy stopniowo od momentu powstania spółki, sukcesywnie zwiększając liczbę pracowników o wysokich kompetencjach naukowych i biznesowych. Na koniec 2020 roku zatrudnialiśmy 12 osób, a pod koniec 2021 już 21. Obecnie nasz zespół liczy aż 35 osób – w większości chemoinformatyków, chemików obliczeniowych, toksykologów czy fizyków.
Pozyskiwanie ludzi z pasją do nauki i jednoczesnym zrozumieniem realiów biznesu stanowi duże wyzwanie. Wymagamy wysoce specjalistycznych kompetencji w wielu obszarach tj. np. obszar chemii, inżynierii materiałowej, programowania, toksykologii, nano- i bioinformatyki, a przy tym umiejętności realizacji projektów w tempie i standardach rynkowych. Dlatego sięgamy zarówno po doświadczonych naukowców, jak i pracujemy ze studentami ostatnich lat, oferując im program stażowy, w celu przekazania im wiedzy i zdobytego doświadczenia. Tak łączymy naukowe podejście do chemoinformatyki z praktycznym zrozumieniem oczekiwań naszych partnerów biznesowych.
To co trzeba zrobić, aby odnieść taki sukces jak Wasz?
Ścieżka od pomysłu naukowego do komercyjnego wdrożenia jest w Polsce wykonalna, lecz wciąż pełna wyzwań.
Po pierwsze, trzeba pamiętać o zabezpieczeniu finasowania – nierzadko łącząc kapitał prywatny z grantami publicznymi. Po drugie, należy zbudować i utrzymać wysokospecjalistyczną kadrę i zespół Po trzecie, bardzo istotne jest aby wypracować efektywny model współpracy z uczelniami i instytucjami naukowymi. Po czwarte, niezmiernie istotne jest dostosowanie kultury organizacyjnej do specyfiki rynkowej. Tam, gdzie udaje się te wszystkie elementy połączyć, rodzą się innowacyjne rozwiązania o globalnym potencjale.
I dobrym dowodem na to jest właśnie Wasza firma! Z jakiego projektu QSAR Lab jesteś szczególnie dumna?
Z perspektywy naukowczyni i przedsiębiorczyni jestem dumna, że jako firma i jako Zespół naukowy konsekwentnie rozwijamy i dostosowujemy narzędzia komputerowe bazujące na metodach sztucznej inteligencji i uczenia maszynowego od blisko 20 lat. To narzędzia, które dziś zyskują uznanie na całym świecie. To, co kiedyś było postrzegane jako futurystyczna wizja, obecnie staje się kluczowym elementem transformacji cyfrowej w nauce i przemyśle.
Nasze technologie znajdują zastosowanie nie tylko w projektowaniu nowych materiałów, chemikaliów i leków, ale także w optymalizacji procesów zgodnych z regulacjami prawnymi i strategią Europejskiego Zielonego Ładu, wspierając realne potrzeby przemysłu czy organów regulacyjnych.
Od początku istnienia firmy zrealizowaliśmy ponad 30 projektów we współpracy z ponad 70 instytucjami partnerskimi na pięciu kontynentach o łącznym budżecie badań ponad 500 000 000 euro.
Opracowaliśmy Platformę nQTb – pierwszą w Europie platformę umożliwiającą wirtualne projektowanie i ocenę ryzyka nanomateriałów zgodnie z regulacjami UE oraz sieć NAMs (New Approach Methodologies). W ubiegłym roku staliśmy się doradcami w sprawach opracowania standardów grupowania nanomateriałów w oparciu o nowe metody będące alternatywą wobec badań na zwierzętach Europejskiej Agencji Chemikaliów – najważniejszej instytucji zarządzającej obrotem chemikaliów na terenie Unii Europejskiej. Opracowana metodyka stanowić będzie podstawy nowych regulacji prawnych dotyczących rejestracji i wprowadzania nanomateriałów na rynek europejski. To dowód, że polska nauka ma ogromny potencjał wdrożeniowy, ale wymaga wsparcia – zarówno finansowego, jak i systemowego, w postaci bardziej elastycznej współpracy między uczelniami, przedsiębiorstwami i administracją publiczną.
W czasach globalnych wyzwań – od zmian klimatycznych i chorób o podłożu środowiskowym ((np. obniżona płodność, nowotwory, ADHD u dzieci), po pandemie – odpowiedzialne i zoptymalizowane projektowanie chemikaliów i materiałów odpowiadających na konkretne potrzeby społeczeństwa i nowo pojawiające się zagrożenia staje się kluczowe. Wierzę, że nasze rozwiązania przyczyniają się do budowania świata, w którym innowacja idzie w parze z bezpieczeństwem i etyką, w całym cyklu życia produktu.
Jak widzisz przyszłość QSAR Lab? Czy są jakieś badania lub kierunki, które szczególnie Was ekscytują?
Już dzisiaj realizuje nasz cel, którym jest pełna digitalizacja procesu projektowania tak, aby innowacyjne materiały, chemikalia i leki były bezpieczne, powstawały szybciej, efektywniej i bez potrzeby kosztownych, czasochłonnych badań eksperymentalnych, a także przy maksymalnym ograniczeniu testów na zwierzętach laboratoryjnych.
Wyobrażam sobie jednak naszą firmę jako lidera w transformacji cyfrowej nauk chemicznych i materiałowych, wyznaczającego nowe standardy w badaniach nad nanotechnologią, farmaceutykami oraz bezpiecznym i zrównoważonym rozwojem przemysłu – szczególnie w obszarze zaawansowanych innowacyjnych materiałów nowej generacji, ang. Innovative Advanced materials. A nasze narzędzia – jako standard w nowoczesnym projektowaniu bezpiecznych i zrównoważonych materiałów oraz ocenienie ich ryzyka chemicznego w całym cyklu życia produktu.
Prywatnie szczególnie ekscytujący jest dla mnie rozwój technologii nanoinformatycznych w medycynie. Moim osobistym marzeniem jest rozszerzenie potencjału opracowanych przez nas narzędzi o zastosowania medyczne, w tym projektowanie nanocząstek wykorzystywanych jako nośniki leków lub materiału genetycznego (RNA). W obliczu nowo pojawiających się chorób, takich jak COVID-19, innowacyjne podejście do projektowania nanomedycyny ma kluczowe znaczenie dla przyszłości ochrony zdrowia.
Wierzę, że dzięki integracji metod chemoinformatycznych, biologii molekularnej i modelowania molekularnego będziemy w stanie przyspieszyć opracowanie skuteczniejszych terapii, jednocześnie minimalizując ryzyko ich toksyczności.
Brzmi kosztownie…
Dla przykładu opracowanie nowych strategii leczenia chorób neurodegeneracyjnych jest obecnie jednym z najtrudniejszych i najbardziej kosztownych zadań dla farmacji. Według statystyk koszt wprowadzenia nowego leku w perspektywie 5 letnich badań wynosi 1395 mln USD, z czego 30,8% tej sumy stanowią badania wstępne i badania przedkliniczne (in vitro i in vivo). W przypadku leków ośrodkowego układu nerwowego (OUN) zaledwie 3-5% substancji rozważanych jako leki trafia na rynek, ponieważ większość z nich nie jest w stanie skutecznie przekraczać bariery krew-mózg (BBB).
Jak to działa na polskim rynku?
Na polskim rynku farmaceutycznym proces opracowywania nowych leków, ze względu na bariery kapitałowe, realizowany jest głównie w partnerskim modelu biznesowym. Innowacyjne przedsiębiorstwa biotechnologiczne (np. Selvita) prowadzą badania jedynie do etapu badań przedklinicznych. Kolejne fazy projektu (w tym badania kliniczne) prowadzone są w partnerstwie z jedną ze światowych firm farmaceutycznych (np. Astra Zeneca, Pfizer, Roche, Sanofi), która finansuje dalsze badania, zazwyczaj w formie płatności z góry i grantów badawczych.
Zakładając, że koszt modelowania z oprogramowaniem nQTb (wliczając w to koszty licencji i czas pracy modelarza) będzie co najmniej o 50% niższy niż eksperymentów (liczba syntetyzowanych i testowanych substancji zmniejszy się o 50-80%), to spowodowałoby znaczne oszczędności dla polskiego partnera. W takich przypadkach, ponieważ po pierwsze – potrzebny jest niższy poziom inwestycji zewnętrznych, a po drugie – inwestor rozpoczyna finansowanie badań na późniejszych etapach. Dzięki temu można wynegocjować znacznie lepsze warunki umów parterskich z dużymi koncernami farmaceutycznymi, co przełożyłoby się na wzrost dochodu.
Średni czas trwania badań przedklinicznych (od syntezy do startu klinicznego) wynosi 31,2 miesiąca. Zakładając, że czas potrzebny na ten etap skróci się o 50% w efekcie zastosowania zestawu narzędzi nQTb opóźnienie między fazą przedkliniczną a kliniczną zmniejsza się z 5 lat do około 4,5 roku bez zwiększania kosztów. Zwiększa to konkurencyjność przedsiębiorstwa korzystającego z narzędzi nQTb na rynku światowym.