Anna Burek: Temat AI (z ang. Artificial Intelligence) kojarzy się wielu osobom z filmami science-fiction lub robotami, które mają nas zastąpić. Tymczasem Pan łączy tę technologię z medycyną. Jak to się w ogóle zaczęło? Skąd u Pana takie zainteresowanie zdrowiem?
Mario Cypko: Można powiedzieć, że medycyna była w moim życiu od zawsze, choć w nieco innej formie. Mój dziadek był chirurgiem, w rodzinie w Polsce mamy też wielu dentystów. Ten świat lekarski zawsze mnie ciekawił, ale jednocześnie czułem, że moją mocną stroną jest logika, matematyka i informatyka. Szukałem sposobu, by połączyć te dwie pasje. Na studiach informatycznych zacząłem uczęszczać na wykłady medyczne, co wtedy było jeszcze rzadkością.
Kluczowym momentem było spotkanie z profesorem Heinzem Lemke. To on wprowadził mnie w świat technologii medycznych oraz sztucznej inteligencji rozwijanej z myślą o zastosowaniach klinicznych. Już wtedy istniały metody modelowania, analizy danych i wspomagania decyzji, choć miały one inną formę niż dzisiejsze systemy AI. Szczególnie ważne było dla mnie to, że profesor Lemke od początku podkreślał znaczenie rozwiązań przejrzystych, zrozumiałych i możliwych do zweryfikowania przez lekarza. Ten właśnie kierunek, transparentna i wyjaśnialna AI, ukształtował moje dalsze podejście badawcze. To bardzo ważne określenie, szczególnie dla osób, które obawiają się nowych technologii. Chodzi o to, by system nie był „czarną skrzynką”, która podaje wynik, a my nie wiemy skąd. Moim celem było stworzenie narzędzi, które lekarz może zrozumieć i zweryfikować. Moja droga prowadziła przez Berlin do Lipska, gdzie robiłem doktorat już bezpośrednio w klinice, współpracując ramię w ramię z lekarzami przy trudnych przypadkach raka gardła.
Anna Burek: Zanim przejdziemy do konkretnych zastosowań w leczeniu raka, chciałabym, żebyśmy wyjaśnili naszym czytelnikom podstawową różnicę. Często mylimy te pojęcia. Czym tak „na chłopski rozum” różni się robot od sztucznej inteligencji?
Mario Cypko: To bardzo dobre pytanie, bo te pojęcia rzeczywiście się przenikają. Najprościej mówiąc: robot to maszyna, „ciało”, które ma możliwość ruchu. AI to natomiast „mózg”, czyli warstwa analityczna, która przetwarza dane, wspiera podejmowanie decyzji, i która tym ciałem steruje.
Wyobraźmy sobie robota, który ma kamerę zamiast oczu i sensory zamiast dotyku. Robot sam w sobie jest przede wszystkim fizyczną maszyną. Dopiero sztuczna inteligencja analizuje obraz z kamery, interpretuje to, co „widzi”, i na tej podstawie przekazuje maszynie informację, jak ma zareagować lub się poruszyć. AI odpowiada za analizę danych i wnioskowanie, a robotyka za fizyczne wykonanie działania. W medycynie najczęściej korzystamy z samej „inteligencji” w formie zaawansowanych programów komputerowych, które pomagają w analizie danych.

Anna Burek: Skoro mowa o analizie danych – my, jako użytkownicy internetu, znamy głównie proste czaty, jak ChatGPT. Wiemy, że one uczą się na tym, co do nich wpiszemy. Czy uważa Pan, że wiedza doświadczonego lekarza, który zbadał tysiące pacjentów, może przegrać z algorytmem? Czy maszyna w pewnym momencie naprawdę może wiedzieć lepiej?
Mario Cypko: To nie jest kwestia „przegrywania”, ale raczej ograniczeń ludzkiego umysłu, których często nie jesteśmy świadomi. Proszę zauważyć, że sytuacja medyczna pacjenta może być niebywale skomplikowana. My, jako ludzie, podejmując codzienne decyzje – np. kupując dom czy samochód – bierzemy pod uwagę trzy, może cztery kluczowe informacje, nawet jeśli wydaje nam się, że analizujemy wszystko.
Eksperci, tacy jak lekarze, są w stanie przetworzyć do 20 różnych zmiennych jednocześnie. To już jest bardzo dużo! Ale współczesna medycyna dostarcza nam setek danych: wyniki badań krwi, obrazowanie, genetyka, a do tego dochodzi styl życia pacjenta, jego kontakty społeczne czy dieta. To daje nawet 250 i więcej różnych informacji na temat jednego przypadku. Badania już w latach 80. pokazały, że gdy liczba informacji przekracza 40, w ludzkim umyśle powstaje „szum”. Zamiast podejmować lepsze decyzje, zaczynamy czuć dezorientację i podświadomie upraszczamy problem, opierając się na intuicji lub pamięci o „podobnym pacjencie sprzed lat”. AI się nie męczy i nie zapomina. Ona potrafi uporządkować te 250 informacji i wskazać, które z nich w tym konkretnym przypadku są kluczowe dla przeżycia pacjenta.
Anna Burek: Brzmi to fascynująco, ale też nieco przerażająco. Jak w takim razie wygląda praca nad takim modelem? Czy to jest po prostu wielki kalkulator, do którego wrzuca się dane?
Mario Cypko: To zależy od rodzaju sztucznej inteligencji, o której mówimy. Dziś wiele osób myśli przede wszystkim o chatbotach. W ich przypadku można to sobie uprościć jako pewną „chmurę punktów”, ogromną przestrzeń informacji i statystycznych podobieństw, w której system wyszukuje najbardziej prawdopodobne powiązania i na tej podstawie generuje odpowiedź. To jest właśnie problem dzisiejszych chatbotów internetowych – one zawsze udzielą odpowiedzi, bo są zaprogramowane, by być pomocne, ale nie zawsze potrafią przyznać: „nie wiem” lub „to, co mówię, jest nieprawdą”. Takie zjawisko nazywamy halucynacjami albo pseudowiedzą, a w medycynie na taką „kreatywność” maszyny nie ma miejsca. Dlatego budujemy systemy transparentne, gdzie lekarz może prześledzić, z czego wynika dana rekomendacja.
W mojej pracy nie chodzi o wrzucenie danych do wielkiego kalkulatora, ale o stworzenie razem z lekarzami przejrzystej mapy zależności medycznych. Można ją porównać do mapy miasta albo grafu, na którym widać, które informacje są od siebie zależne, które czynniki wpływają na kolejne i jak silny jest ten wpływ. Dzięki temu model nie jest „czarną skrzynką”, każdy jego element można zobaczyć, omówić i zweryfikować.
W praktyce oznaczało to bardzo ścisłą współpracę z lekarzem. Przez długi czas pracowaliśmy razem dzień po dniu, przekładając wiedzę kliniczną na taki właśnie model, na przykład dla decyzji dotyczących raka krtani. Lekarz wskazywał, które czynniki są istotne, które zależności mają znaczenie i gdzie potrzebna jest szczególna ostrożność. Dzięki temu system nie powstawał jako nieprzejrzysta AI, lecz jako wspólnie tworzona, zrozumiała i możliwa do sprawdzenia struktura wiedzy.
Takie transparentne modele są szczególnie cenne wtedy, gdy danych jest mało — na przykład przy rzadkich chorobach albo w nowych sytuacjach klinicznych, jak na początku pandemii COVID-19. W takich momentach nie możemy polegać wyłącznie na danych historycznych, bo po prostu ich jeszcze brakuje. Możemy natomiast wykorzystać wiedzę ekspertów i włączyć ją do modelu, uzupełniając naszą mapę zależności medycznych. Dzięki temu lekarz, nawet poza dużym ośrodkiem klinicznym, może korzystać z uporządkowanej wiedzy specjalistycznej.
Anna Burek: Wspomniał Pan o ryzyku halucynacji, czyli wymyślania faktów przez sztuczną inteligencję. Czy to oznacza, że lekarz musi cały czas „trzymać rękę na pulsie” i kontrolować maszynę? Czy pacjent może czuć się bezpiecznie, wiedząc, że w jego diagnozie palce maczała AI?
Mario Cypko: To znowu zależy od tego, o jakiej metodzie AI mówimy. W przypadku narzędzi działających jak chatboty rzeczywiście trzeba zachować dużą ostrożność, bo ryzyko halucynacji może prowadzić do pozornie wiarygodnych, ale błędnych odpowiedzi. W transparentnych, modelowych podejściach, nad którymi pracuję, problem wygląda inaczej. Tutaj model jest jawny: widzimy jego strukturę, zależności między elementami i to, z czego wynika dana rekomendacja. Każdy fragment tej mapy można sprawdzić i omówić z ekspertem.
Nadal jednak istnieje inne ryzyko, że użytkownik z czasem zaufa systemowi zbyt mocno. Jeśli lekarz użyje takiego systemu sto razy i sto razy otrzyma trafną podpowiedź, to za sto pierwszym razem może stać się mniej uważny i przestać wszystko dokładnie weryfikować. To właśnie jest moment krytyczny. Dlatego projektujemy te systemy tak, by zmuszały użytkownika do myślenia. One nie dają gotowego wyroku, ale pokazują opcje i argumenty. Ale ostateczna decyzja zawsze należy do człowieka, lekarza i pacjenta.
Anna Burek: Skoro mowa o pacjentach – dziś każdy z nas ma w kieszeni telefon, a wielu z nas nosi na ręku tzw. smartwatch, czyli inteligentny zegarek. Czy te urządzenia to też element tej układanki? Czy one mogą realnie pomóc nam w leczeniu, czy to tylko drogie gadżety?
Mario Cypko: To absolutnie nie są tylko gadżety! Coraz większe znaczenie w medycynie mają ciągłe lub regularne pomiary poza kliniką, a smartwatche są jednym z najbardziej dostępnych przykładów takich rozwiązań. Obecnie pracujemy nad systemami, które łączą dane ze szpitala z danymi z zegarków. Proszę pomyśleć: wizyta u lekarza trwa 15 minut raz na kilka miesięcy. Co dzieje się pomiędzy wizytami? Nie wiemy.
Dzięki takim urządzeniom, jak zegarkowi, nasze metody AI mogą zrozumieć sytuację indywidualną pacjenta. Jeśli system widzi skok tętna i temperatury, a jednocześnie wie, że w mieście panuje wirus, może zasugerować: „Dzisiaj omiń autobus, jedź do pracy rowerem, by uniknąć skupisk ludzi, twoja odporność jest obniżona”. Pracujemy nad tym przy transplantacjach nerek czy po operacjach żołądka. Monitorujemy pacjenta po chemioterapii, bo te leki mają ogromny wpływ na serce. Takie dane mogą w przyszłości pomóc wcześniej wychwytywać sygnały pogorszenia stanu zdrowia, czasem zanim pacjent sam uzna je za istotne. To właśnie badamy i rozwijamy w naszych projektach.
Anna Burek: Opowiem Panu historię mojej koleżanki. Miała nawracającą wysypkę, lekarze przez miesiące rozkładali ręce. W końcu wpisała objawy w ChatGPT, dostała diagnozę, lekarz ją potwierdził, lek zadziałał. Czy w takim razie czeka nas przyszłość, w której zamiast do przychodni, będziemy kupować subskrypcję na dostęp do medycznego bota?

Zdjęcie: Michael Kienzler
Mario Cypko: Historia koleżanki jest ciekawa, ale i niebezpieczna. Pamięta Pani pewnie fenomen „Doktora Google”? Ludzie szukali diagnoz w internecie i zazwyczaj trafiali na te najgorsze, co tylko potęgowało stres. Chatbot może sprawiać wrażenie bardziej „indywidualnego”, bo można mu opisać objawy szerzej, dodać zdjęcie czy kontekst codziennego życia. Ale on nadal operuje w tej swojej „chmurze punktów” i zawsze szuka tego, co jest najbliżej statystycznie.
Podam przykład: pacjent ma problemy z nerką. Lekarze decydują o operacji, wycinają jedną, okazuje się zdrowa. Szukają dalej. Dopiero rozmowa ze specjalistą od chorób egzotycznych ujawnia, że to… malaria, która daje podobne objawy. Chatbot w Niemczech czy w Polsce nie zasugeruje malarii w pierwszej kolejności, bo to „statystycznie niepasujący punkt”. Dlatego zawsze przestrzegam przed leczeniem się na własną rękę tylko na podstawie bota. Ryzyko halucynacji maszyny jest zbyt duże. Przyszłością jest symbioza: pacjent monitorujący się urządzeniami i lekarz wspomagany przez specjalistyczne, sprawdzone modele medyczne.
Anna Burek: Na jakim etapie są te prace? Czy to, o czym Pan mówi – te modele pomagające przy raku czy po przeszczepach – to już rzeczywistość, czy pieśń przyszłości? Czy my, zwykli pacjenci, wkrótce z tego skorzystamy?
Mario Cypko: To już się dzieje. Pracowałem w Europejskiej Agencji Kosmicznej nad prewencją, pracowałem w Berlinie przy kardiologii, a teraz we Fryburgu skupiamy się na nerkach i raku żołądka. Nie budujemy jednego, gigantycznego modelu „od wszystkiego”, bo matematycznie to nie ma sensu – taki model zbyt często by się mylił. Tworzymy natomiast wyspecjalizowane narzędzia do konkretnych chorób. Wierzę, że w ciągu najbliższych lat te rozwiązania trafią do szerokiego użytku w formie aplikacji, które będą mostem między pacjentem a kliniką.
Jeszcze 15 lat temu nikt by w te możliwości nie uwierzył, a dziś to nasza codzienność. Jednocześnie jednak medycyna staje się bardziej osobista i dopasowana do konkretnych pacjentów. Już nie patrzymy tylko na to, co mówi podręcznik, ale na to, co mówi organizm konkretnego pana Jana czy pani Marii w tej konkretnej minucie.
Zdjęcie w czołówce artykułu (Aditya Kumar)
Anna Burek

