Medycyna predykcyjna w praktyce: jak algorytmy oceniają twoje ryzyko choroby przed pierwszym objawem?

0
9
3/5 - (1 vote)

W artykule znajdziesz:

Oczekiwania wobec medycyny predykcyjnej: po co przewidywać choroby?

Od gaszenia pożarów do zapobiegania zapłonowi

Przez większość historii medycyny lekarz reagował na to, co już widać: ból w klatce piersiowej, guz, duszność, nietypowe wyniki badań. Medycyna predykcyjna stawia inny cel: wyłapać wysokie ryzyko poważnej choroby zanim pojawi się pierwszy objaw. To przejście z roli strażaka gaszącego pożar do inżyniera, który projektuje budynek tak, by płomienie w ogóle nie wybuchły.

Dla systemu ochrony zdrowia oznacza to zmianę priorytetów. Zamiast inwestować głównie w skomplikowane leczenie zaawansowanych chorób, coraz więcej uwagi kieruje się na etap „przedchorobowy”. Algorytmy predykcyjne pomagają wskazać osoby, u których intensywna profilaktyka ma największy sens, bo z dużym prawdopodobieństwem zapobiegnie zawałowi, udarowi czy rozwojowi cukrzycy.

Jednocześnie rośnie oczekiwanie społeczne: skoro technologie potrafią przewidzieć, co polubisz na portalu społecznościowym, dlaczego nie miałyby przewidzieć, kiedy zachorujesz? Medycyna predykcyjna próbuje na to pytanie odpowiedzieć w sposób odpowiedzialny, opierając się na danych i biologii, a nie magii.

Pacjent jako współdecydent, a nie bierny odbiorca

Prognozy ryzyka mają sens tylko wtedy, gdy ktoś na ich podstawie zmieni działanie. Medycyna predykcyjna zakłada aktywnego pacjenta, który rozumie swoje ryzyko, dopytuje i wspólnie z lekarzem wybiera strategię prewencji. Zamiast komunikatu „ma pan zawał, trzeba natychmiast leczyć” pojawia się komunikat „ma pan istotnie podwyższone ryzyko zawału w najbliższych latach, możemy to ryzyko obniżyć w taki i taki sposób”.

Dla wielu osób jest to trudny moment. Wynik „ryzyko 25% w ciągu 10 lat” nie boli jak ostry zawał, nie powoduje nagłej mobilizacji. Właśnie dlatego tak ważne jest, by algorytmy medycyny predykcyjnej były zrozumiałe i by lekarz potrafił przełożyć język statystyki na konkretne decyzje: zmiana leczenia, modyfikacja stylu życia, dodatkowe badania.

Rola pacjenta przesuwa się w stronę partnera: zadającego pytania, świadomie wybierającego intensywność profilaktyki, czasem akceptującego określone ryzyko. Bez tego współudziału nawet najlepszy model predykcyjny pozostanie ciekawostką w systemie informatycznym.

Dlaczego klasyczna profilaktyka to za mało

Przez lata filarem profilaktyki były standardowe badania przesiewowe (np. mammografia, cytologia, kolonoskopia po określonym wieku) oraz prosty wywiad lekarski. To wciąż niezwykle ważne narzędzia, ale przy starzejącym się społeczeństwie, epidemii otyłości i chorób przewlekłych zaczynają być niewystarczające.

Dwie osoby w tym samym wieku, z podobnym wynikiem cholesterolu, mogą mieć zupełnie inną „historię ryzyka”: jedną obciążoną genetycznie, z przewlekłym stresem i fatalnym snem, a drugą z korzystnym profilem genetycznym i świetną kondycją fizyczną. Klasyczna profilaktyka często traktuje je podobnie, tymczasem nowoczesne modele ryzyka starają się te różnice wychwycić i przeliczyć na liczby.

Dodatkowo, liczba danych, którą dziś można zebrać o pacjencie, dawno przekroczyła możliwości „ręcznej” analizy lekarza. Stąd rosnąca rola algorytmów, które są w stanie wyłapać subtelne wzorce w setkach parametrów i sygnałów z wielu lat.

Historia „klinicznie zdrowej” osoby z wysokim ryzykiem

Wyobraź sobie czterdziestoparolatka, który przychodzi na okresowe badania. Nie pali, waga w miarę prawidłowa, cholesterol „na granicy”, ciśnienie trochę podwyższone, ale jeszcze nie nadciśnienie z podręcznika. Lekarz mógłby powiedzieć: „jest pan zasadniczo zdrowy, proszę się ruszać i mniej stresować”.

Ten sam pacjent oceniony przez algorytm ryzyka sercowo-naczyniowego może otrzymać komunikat: „wysokie ryzyko zawału w ciągu 5–10 lat”. Dlaczego? Bo model uwzględnia: obciążony wywiad rodzinny (ojciec po zawale przed 50.), nieregularny sen, wysoki poziom określonych markerów zapalnych i kilka innych, nieoczywistych wzorców z badań laboratoryjnych z ostatnich lat.

W praktyce oznacza to wcześniejsze włączenie leków obniżających ryzyko, zaplanowanie konkretnych zmian w stylu życia i dokładniejszy monitoring. Algorytm nie „widzi przyszłości”, ale z dużą dokładnością szacuje, że bez interwencji prawdopodobieństwo poważnego zdarzenia sercowego jest znacząco podwyższone.

Co to w ogóle jest medycyna predykcyjna?

Praktyczna definicja: prognoza zdarzeń zdrowotnych

Medycyna predykcyjna to dziedzina koncentrująca się na przewidywaniu prawdopodobieństwa wystąpienia określonych zdarzeń zdrowotnych (np. zawał, udar, rozwój cukrzycy, nawrót nowotworu, hospitalizacja) u konkretnej osoby, na podstawie danych o niej i o podobnych pacjentach.

Kluczowe są tu dwa elementy: prawdopodobieństwo oraz zdarzenia przyszłe. Zamiast binarnego „zachoruje/nie zachoruje” pojawia się język liczb: 5%, 15%, 40% ryzyka w określonym horyzoncie czasowym. Taka prognoza nie jest gwarancją, ale źródłem informacji dla lekarza i pacjenta, który może zareagować wcześniej.

Modele używane w medycynie predykcyjnej bazują na ogromnych zbiorach danych: od klasycznych badań populacyjnych, przez rejestry szpitalne, po dane z urządzeń noszonych na nadgarstku. Dzięki temu ryzyko jednostki wylicza się, porównując ją do tysięcy lub milionów innych osób o podobnych cechach.

Prognoza statystyczna kontra „wróżenie z fusów”

Nie każda prognoza zdrowotna jest równa. „Ma pan 60 lat, więc na coś pan kiedyś umrze” to banał, nie medycyna predykcyjna. Różnica polega na tym, że nowoczesne algorytmy:

  • bazują na twardych danych z badań epidemiologicznych, klinicznych i rejestrów,
  • opierają się na znanych powiązaniach biologicznych i statystycznych (np. wpływ ciśnienia krwi na ryzyko udaru),
  • weryfikowane na niezależnych grupach pacjentów – sprawdza się, czy ich prognozy się sprawdzają,
  • podlegają ciągłej kalibracji i aktualizacji, gdy pojawiają się nowe dane.

To odróżnia je od intuicyjnych ocen w stylu „ma pan pecha, taki typ” czy od nadmiernie uproszczonych testów internetowych bez zaplecza naukowego. Dobrze zbudowany model predykcyjny potrafi np. wskazać, że ktoś jest w najwyższym 5% osób pod względem ryzyka zawału, uwzględniając wiele współwystępujących czynników.

Predykcja, prewencja, personalizacja – trzy P, które się przenikają

Medycyna predykcyjna najczęściej pojawia się w kontekście koncepcji „3P” lub „4P” (predykcyjna, prewencyjna, personalizowana, czasem także partycypacyjna). To nie przypadek – te podejścia się uzupełniają:

  • Predykcja – szacuje ryzyko: kto z dużym prawdopodobieństwem zachoruje, kto będzie miał zaostrzenia, kto wymaga pilniejszej opieki.
  • Prewencja – używa tej prognozy, aby z wyprzedzeniem wdrożyć działania ochronne: leki, zmiany stylu życia, częstsze kontrole, dodatkowe badania.
  • Personalizacja – modyfikuje rodzaj i intensywność działań tak, by pasowały do konkretnej osoby: jej genetyki, preferencji, współistniejących chorób, konstrukcji psychicznej.

Przykład: dwa modele ryzyka mogą wskazywać na podobne ryzyko zawału u dwóch pacjentów, ale jeden z nich ma przewlekłą chorobę nerek, a drugi nie. Plan prewencji, leki i docelowe wartości ciśnienia mogą się przez to różnić – to właśnie personalizacja oparta na predykcji.

Spotkanie biologii, informatyki i medycyny klinicznej

Za nowoczesnym kalkulatorem ryzyka stoi zwykle zespół specjalistów, nie jeden „geniusz od algorytmów”. Medycyna predykcyjna łączy:

  • Biologię i genetykę – aby rozumieć, które biomarkery i warianty genetyczne są istotne.
  • Epidemiologię i statystykę – aby dobrze zaprojektować badania populacyjne i poprawnie przeanalizować dane.
  • Informatykę i sztuczną inteligencję – aby zbudować, przetestować i wdrożyć algorytmy, które poradzą sobie z ogromnymi wolumenami danych.
  • Medycynę kliniczną – aby wybrać sensowne zmienne, interpretować wyniki i przełożyć je na decyzje terapeutyczne.

Bez współpracy tych dziedzin powstałyby albo eleganckie matematycznie modele oderwane od praktyki, albo niespójne „przeczucia kliniczne” bez liczbowego potwierdzenia. Prawdziwa medycyna predykcyjna stara się trzymać jednego i drugiego.

Jakie dane karmią algorytmy ryzyka choroby? Od ankiety po genom

Klasyczne dane kliniczne: fundament każdego modelu

Choć medycyna predykcyjna kojarzy się z genomiką i sztuczną inteligencją, większość działających dziś modeli zaczyna od dość prozaicznych danych:

  • wiek, płeć, wzrost, masa ciała, BMI, obwód talii,
  • ciśnienie tętnicze, tętno spoczynkowe,
  • stężenie cholesterolu całkowitego, LDL, HDL, trójglicerydów,
  • glikemia na czczo, hemoglobina glikowana (HbA1c),
  • informacja o paleniu, ilości wypalanych papierosów,
  • aktywność fizyczna deklarowana w wywiadzie,
  • obciążenia rodzinne, wcześniejsze choroby i operacje.

Te zmienne mają jedną ogromną zaletę: ich związek z ryzykiem chorób jest dobrze poznany i wielokrotnie potwierdzony. Na ich podstawie powstały pierwsze „kalkulatory” ryzyka sercowo-naczyniowego czy cukrzycy, które do dziś są używane w gabinetach na całym świecie.

Dane kliniczne zbiera się najczęściej w postaci ankiet, wywiadu i wyników badań. Ich jakość zależy w dużej mierze od rzetelności pacjenta („ile pan pije?”, „jak często się pani rusza?”) oraz dokładności pomiarów (ciśnienie mierzone poprawną mankietą, właściwa kalibracja aparatu).

Laboratorium, obrazowanie i ukryte wzorce

Coraz więcej modeli ryzyka sięga po rozszerzone dane laboratoryjne i obrazowe, które pozwalają wyłapać subtelne sygnały nadchodzącego problemu. W grę wchodzą m.in.:

  • markery zapalne (np. hs-CRP),
  • markery sercowe (troponiny sercowe w bardzo czułych oznaczeniach, NT-proBNP),
  • enzymy wątrobowe, kreatynina, wskaźniki funkcji nerek,
  • wyniki badań tarczycy, hormonów,
  • obrazowanie – EKG, echo serca, TK, rezonans, mammografia, RTG, USG.

Tu do gry wchodzą algorytmy sztucznej inteligencji, które analizują bezpośrednio obrazy, a nie tylko opis lekarza radiologa. Sieci neuronowe potrafią zauważyć na mammografii czy tomografii komputerowej drobne zmiany, które dla ludzkiego oka są na granicy percepcji, ale statystycznie wiążą się z wyższym ryzykiem rozwoju nowotworu lub zdarzenia sercowego.

Przykład z praktyki: analiza EKG przez algorytm, który jest w stanie na podstawie „pozornie prawidłowego” zapisu ocenić zwiększone ryzyko migotania przedsionków w najbliższych latach. Człowiek widzi sinus, komputer widzi subtelne częstotliwości i zależności między odcinkami, które rzadko są interpretowane manualnie.

Dane genetyczne, poligeniczne wskaźniki ryzyka i ich ograniczenia

Testy genetyczne weszły już do mainstreamu, ale ich rola w medycynie predykcyjnej jest bardziej złożona, niż sugerują reklamy. W uproszczeniu można wyróżnić dwa typy podejścia:

  • Wysokopenetracyjne mutacje – np. BRCA1/BRCA2 w raku piersi i jajnika, mutacje w genach predysponujących do zespołów dziedzicznego raka jelita grubego. Obecność takiej mutacji bardzo wyraźnie zwiększa ryzyko i prowadzi do konkretnych działań (częstsze badania, profilaktyczne zabiegi).
  • Poligeniczne wskaźniki ryzyka (PRS) – setki lub tysiące małych wariantów genetycznych, z których każdy minimalnie zwiększa lub zmniejsza ryzyko, ale razem tworzą profil genetyczny predyspozycji np. do choroby wieńcowej, cukrzycy typu 2 czy niektórych nowotworów.

Styl życia i środowisko: codzienne decyzje jako dane wejściowe

Geny i badania krwi to tylko część układanki. Bardzo dużo „mówi” o nas to, co robimy każdego dnia – często znacznie więcej, niż pojedynczy wynik z laboratorium. Dlatego coraz więcej modeli predykcyjnych sięga po informacje o stylu życia i środowisku:

  • zwyczaje żywieniowe (częstotliwość spożywania warzyw, słodyczy, alkoholu, żywności wysoko przetworzonej),
  • jakość i długość snu, godziny zasypiania i wybudzeń,
  • poziom stresu, ekspozycja na przewlekłe obciążenia psychiczne,
  • rodzaj pracy (siedząca, fizyczna, praca zmianowa, nocna),
  • zanieczyszczenie powietrza, hałas w miejscu zamieszkania,
  • status socjoekonomiczny – edukacja, dochód, dostęp do opieki medycznej.

Na pierwszy rzut oka to „miękkie” dane. Jednak z perspektywy epidemiologii wiadomo, że np. praca zmianowa przekłada się na wyższe ryzyko cukrzycy i chorób serca, a smog – na zaostrzenia astmy, POChP, częstsze zawały i udary. Umieszczenie tych informacji w modelu sprawia, że prognoza dla osoby żyjącej w centrum dużego miasta i dla kogoś ze wsi o czystym powietrzu nie będzie identyczna, mimo podobnych wyników badań.

Coraz częściej dane o stylu życia nie pochodzą wyłącznie z ankiet, ale z urządzeń noszonych – zegarków, opasek, smartfonów. Liczba kroków, czas spędzony w pozycji siedzącej, zmienność rytmu zatokowego, epizody bezruchu w nocy – to wszystko można włączyć do modelu. W efekcie zamiast pytania „czy pani się rusza?” pojawia się realny zapis ostatnich tygodni lub miesięcy.

Wearables i telemedycyna: strumień danych zamiast pojedynczego pomiaru

Klasyczna medycyna opiera się często na pojedynczej wizycie: raz w roku ktoś mierzy ciśnienie, raz na jakiś czas zleca morfologię. Tymczasem organizm pracuje w trybie 24/7. Algorytmy predykcyjne coraz lepiej to wykorzystują, integrując ciągłe lub powtarzalne pomiary z urządzeń domowych:

  • ciśnieniomierze z funkcją zapisu i wysyłki pomiarów,
  • glukometry, sensory do ciągłego monitorowania glikemii (CGM),
  • wagi analizujące skład ciała,
  • pulsoksymetry i domowe spirometry,
  • zegarki monitorujące tętno, saturację, sen, aktywność.

To już nie jest „jeden wynik glukozy na czczo”, lecz cała krzywa zmian – jak reaguje organizm na posiłek, stres, wysiłek. Dla algorytmu oznacza to znacznie bogatszą informację: może ocenić nie tylko poziom ryzyka w danej chwili, ale też trend. Czy kolejne tygodnie wskazują na stabilizację, czy powolne „pełzające” pogarszanie się parametrów?

Przykład z praktyki: pacjent z niewydolnością serca nosi zegarek i ma w domu wagę połączoną z systemem szpitalnym. Delikatny, ale utrzymujący się przez kilka dni wzrost masy ciała i spadek liczby kroków może być dla algorytmu sygnałem nadchodzącego zaostrzenia – zanim chory sam zauważy narastającą duszność. System może wtedy zaproponować wcześniejszą konsultację lub korektę dawek leków.

Dane z systemu ochrony zdrowia: historia wizyt, leków i hospitalizacji

Kolejnym bogatym źródłem informacji są dane administracyjne i kliniczne gromadzone w systemie ochrony zdrowia. To m.in.:

  • historia hospitalizacji i porad ambulatoryjnych,
  • rozpoznania zakodowane według ICD,
  • lista przepisywanych i wykupywanych leków,
  • wyniki badań laboratoryjnych i obrazowych z wielu lat,
  • informacje o zabiegach i procedurach.

Dla pojedynczego lekarza przeanalizowanie wszystkich dokumentów z ostatniej dekady bywa niewykonalne. Algorytm może „przeczytać” setki wpisów, dat i wyników, znaleźć schematy (np. stopniowe zwiększanie dawek leków, powracające infekcje, powtarzające się hospitalizacje z tego samego powodu) i na tej podstawie lepiej oszacować ryzyko. Dla szpitala lub systemu ubezpieczeniowego to także podstawa do przewidywania, kogo warto objąć opieką koordynowaną, zanim dojdzie do kolejnego ostrego incydentu.

Lekarki analizują dane medyczne na ekranie komputera w gabinecie
Źródło: Pexels | Autor: Gustavo Fring

Jak działają modele ryzyka w praktyce: od prostych kalkulatorów do sztucznej inteligencji

Tradycyjne kalkulatory: kilka zmiennych, prosta formuła

Najstarsze i nadal bardzo użyteczne narzędzia predykcyjne to proste kalkulatory ryzyka. Opierają się zwykle na kilkunastu łatwo dostępnych parametrach: wieku, płci, ciśnieniu, cholesterolu, paleniu, czasem cukrzycy. Za kulisami stoi najczęściej regresja logistyczna lub model Coxa, ale dla użytkownika przybiera to postać:

  • tabeli punktowej (każdy czynnik ma określoną liczbę punktów),
  • prostej aplikacji lub formularza internetowego,
  • modułu w systemie gabinetowym.

Mechanizm jest szalenie prosty: każda cecha „dokłada swoje” do ryzyka. Np. wyższy wiek to kilka punktów, palenie – kolejne, wysokie ciśnienie – jeszcze trochę. Suma punktów przekłada się na procentową ocenę ryzyka w określonym czasie (np. prawdopodobieństwo zawału w ciągu 10 lat).

Zaletą takich modeli jest przejrzystość. Lekarz może wytłumaczyć pacjentowi: „gdyby pan przestał palić, ryzyko spadłoby z grupy wysokiej do umiarkowanej”. Wadą – ograniczona liczba zmiennych i trudność w uchwyceniu bardziej złożonych zależności, np. interakcji między lekami, chorobami czy wzajemnym wpływem czynników środowiskowych.

Modele oparte na drzewach decyzyjnych i „lasach”

Kolejnym krokiem są drzewa decyzyjne i ich zespoły, np. lasy losowe. Można je sobie wyobrazić jak serię pytań „tak/nie”, które prowadzą do konkretnej gałęzi ryzyka:

  • Czy pacjent ma cukrzycę? Tak/nie.
  • Jeśli tak – jakie jest jego ciśnienie? Jeśli powyżej określonej wartości, idziemy w prawo, jeśli niżej – w lewo.
  • Po drodze pojawiają się kolejne rozgałęzienia: wiek, palenie, wyniki badań, leki.

Pojedyncze drzewo może być uproszczone i podatne na błąd, ale gdy połączy się setki lub tysiące drzew, które „głosują” nad wynikiem, powstaje las losowy. Taki model bywa bardzo skuteczny, zwłaszcza gdy danych jest dużo, a zależności między nimi są nieliniowe (czyli nie da się ich dobrze opisać prostą linią na wykresie).

W praktyce lasy losowe świetnie radzą sobie np. z przewidywaniem, czy pacjent po wypisie ze szpitala wróci na oddział w ciągu 30 dni, albo z oceną ryzyka sepsy u chorego z infekcją, bazując na wielu równoczesnych parametrach laboratoryjnych i klinicznych.

Głębokie uczenie i sieci neuronowe: kiedy danych jest bardzo dużo

Gdy w grę wchodzą obrazy medyczne, sygnały czasowe, genomika lub po prostu ogromne, wielowymiarowe zbiory danych, na scenę wchodzą modele głębokiego uczenia, czyli sieci neuronowe. Działają one inaczej niż klasyczne modele regresyjne:

  • same uczą się, które kombinacje cech są istotne,
  • potrafią rozpoznawać złożone wzorce (np. układy pikseli na obrazie TK),
  • często osiągają bardzo wysoką skuteczność predykcji.

Przykład: sieć neuronowa analizuje tysiące mammografii, z których część ma potwierdzone rozpoznanie raka w kolejnych latach. Uczy się subtelnych różnic między obrazami kobiet, u których rozwinął się nowotwór, a tymi, u których go nie było. Po nauczeniu się wzorca potrafi na nowej mammografii oszacować ryzyko, że za jakiś czas pojawi się zmiana nowotworowa, choć obecnie obraz jest jeszcze formalnie „prawidłowy”.

Cena za tę skuteczność to często mniejsza przejrzystość. W tradycyjnym kalkulatorze można wskazać: „ten czynnik zwiększył ryzyko o tyle i tyle”. W głębokiej sieci neuronowej wyjaśnienie bywa trudniejsze. Dlatego powstają narzędzia typu explainable AI, które próbują wskazać, jakie fragmenty obrazu czy które cechy danych najbardziej zaważyły na decyzji algorytmu.

Modele hybrydowe: połączenie prostoty i mocy obliczeniowej

W praktyce klinicznej coraz częściej stosuje się podejście hybrydowe. Zamiast wybierać: „albo prosty, czytelny kalkulator”, „albo czarna skrzynka AI”, łączy się obie filozofie. Może to wyglądać na kilka sposobów:

  • algorytm AI generuje surową prognozę, ale jest „obudowany” prostszym modelem, który tłumaczy główne czynniki ryzyka w zrozumiały sposób,
  • prosty model wyselekcjonuje grupę pacjentów wysokiego ryzyka, a sieć neuronowa doprecyzuje wewnątrz tej grupy, kto potrzebuje najbardziej intensywnej interwencji,
  • klasyczny model kliniczny jest wzbogacony o dodatkowe „punkty” wynikające z analizy obrazu lub danych genomowych przez AI.

Takie strategie pozwalają z jednej strony korzystać z mocy nowoczesnych algorytmów, a z drugiej – nie tracić kontaktu z praktycznym, zrozumiałym dla pacjenta obrazem sytuacji. Lekarz nadal może pokazać na kartce lub ekranie: „główne elementy, które u pana grają rolę, to ciśnienie, masa ciała i wynik tego badania obrazowego”.

Konkretne przykłady zastosowań: serce, nowotwory, cukrzyca i więcej

Kardiologia: zawały, arytmie i niewydolność serca

Kardiologia jest jedną z dziedzin, w których medycyna predykcyjna najbardziej się zadomowiła. Klasyczne kalkulatory ryzyka sercowo-naczyniowego pomagają zdecydować, komu włączyć statynę, jak agresywnie obniżać ciśnienie, kogo skierować na dalszą diagnostykę. To już standard.

Nowa fala narzędzi idzie krok dalej:

  • modele prognozujące ryzyko migotania przedsionków na podstawie EKG, cech klinicznych i danych z zegarków,
  • algorytmy przewidujące nawroty niewydolności serca po wypisie, korzystające z wagi, tętna, ciśnienia i danych z telemonitoringu,
  • modele oceniające ryzyko nagłego zgonu sercowego, które pomagają podjąć decyzję o wszczepieniu kardiowertera-defibrylatora (ICD).

W praktyce może to wyglądać tak: pacjent z niewydolnością serca wraca do domu po hospitalizacji. Przez kilka tygodni system ocenia codzienne pomiary. Gdy wykryje niekorzystny trend (np. rosnąca masa ciała, rosnące tętno, coraz krótszy sen), wysyła sygnał do zespołu opiekującego się chorym. Dzięki temu można zareagować modyfikacją leczenia zanim dojdzie do kolejnej, ciężkiej dekompensacji.

Onkologia: ryzyko zachorowania, nawrotu i toksyczności leczenia

W onkologii medycyna predykcyjna ma trzy główne pola działania:

  1. Prognoza ryzyka zachorowania – u osób zdrowych, ale obciążonych genetycznie lub środowiskowo.
  2. Ocena rokowania i ryzyka nawrotu – u osób, które już przeszły leczenie onkologiczne.
  3. Przewidywanie toksyczności terapii – aby dobrać leczenie o akceptowalnym profilu bezpieczeństwa.

Przykłady są dość różnorodne:

  • modele łączące wiek, historię rodzinną, czynniki hormonalne i wyniki badań obrazowych do szacowania ryzyka raka piersi u konkretnej kobiety,
  • genomowe testy podpisów genowych w guzach (tzw. gene expression signatures), które prognozują ryzyko nawrotu i pomagają zdecydować, czy chemioterapia po operacji przyniesie realną korzyść,
  • algorytmy przewidujące, u których pacjentów zastosowanie określonego cytostatyku skończy się ciężką kardiotoksycznością lub uszkodzeniem nerek.

W praktyce pacjentka po operacji raka piersi może usłyszeć: „na podstawie cech guza, wyniku testu genowego i pani cech klinicznych model wskazuje niskie ryzyko nawrotu w ciągu najbliższych lat, więc korzyść z chemioterapii jest niewielka w stosunku do ryzyka powikłań”. To przykład, jak algorytm pomaga uniknąć nadleczenia, a nie tylko wykrywać chorobę wcześniej.

Cukrzyca typu 2: od prediabetyka do indywidualnego planu zapobiegania

Cukrzyca typu 2 rozwija się zazwyczaj powoli. To idealne pole dla predykcji, bo między pierwszymi sygnałami („coś się dzieje z glukozą”) a pełnoobjawową chorobą mija często kilka lat. Modele ryzyka biorą pod uwagę:

  • wiek, BMI, obwód talii,
  • historię glikemii na czczo i po posiłku,
  • aktywność fizyczną, sposób odżywiania,
  • obciążenia rodzinne, przyjmowane leki,
  • czasem także dane z urządzeń noszonych – ilość ruchu, sen, tętno spoczynkowe.

Na tej podstawie algorytm potrafi wskazać osoby w fazie prediabetu, czyli „stanu zawieszenia” między zdrowiem a chorobą. To moment, w którym proste działania (zmiana diety, ruch, czasem niskie dawki leków) mogą odwrócić bieg wydarzeń.

Przykład z codzienności: 45‑latek z lekką nadwagą robi okresowe badania. Glukoza „trochę podwyższona, ale jeszcze bez dramatu”. W klasycznym podejściu dostałby ogólną poradę „proszę uważać na słodycze”. Model predykcyjny, karmiony jego wynikami sprzed kilku lat, masą ciała, trybem pracy i zapisem z opaski, pokazuje: wysokie ryzyko cukrzycy w ciągu 5 lat. Dzięki temu można wejść z konkretnym planem: dietetyk, włączony program aktywności, ścisła kontrola.

Powstają też systemy, które wśród osób już chorych na cukrzycę przewidują:

  • ryzyko ciężkich hipoglikemii (niebezpiecznych spadków cukru),
  • prawdopodobieństwo powikłań nerkowych czy ocznych,
  • który schemat leczenia (np. kombinacja leków doustnych z insuliną) będzie u danej osoby najskuteczniejszy przy najmniejszej liczbie działań niepożądanych.

Jeśli ktoś nosi sensor ciągłego monitorowania glikemii, algorytmy uczą się jego indywidualnego rytmu: jak reaguje na śniadanie, stres, trening. Z czasem system przewiduje, że „za godzinę cukier niebezpiecznie spadnie” i podpowiada korektę – choć pacjent czuje się jeszcze zupełnie dobrze.

Inne pola zastosowań: od nerek po zdrowie psychiczne

Medycyna predykcyjna coraz śmielej wchodzi w dziedziny, które do niedawna kojarzyły się głównie z „leczeniem skutków”, a nie z wyprzedzaniem problemów.

W nefrologii modele ryzyka pomagają ocenić, u którego pacjenta z przewlekłą chorobą nerek najprędzej dojdzie do konieczności dializ. Bierze się pod uwagę nie tylko kreatyninę czy filtrację, ale też współistniejące schorzenia, leki, ciśnienie, a nawet parametry z analizy moczu, które dotąd były traktowane marginalnie. Dzięki temu można wcześniej zaplanować przygotowanie do dializ lub przeszczepu, zamiast działać pod presją nagłego pogorszenia.

W pulmonologii modele pomagają przewidzieć zaostrzenia POChP czy ciężkie epizody astmy na podstawie wcześniejszych hospitalizacji, wyników spirometrii, narażenia na dym tytoniowy, jakość powietrza w miejscu zamieszkania i dane z inhalatorów zliczających dawki. Jeśli system „widzi”, że przez ostatnie tygodnie pacjent częściej sięga po lek doraźny i żyje w gorszych warunkach smogowych, może podnieść „czerwony alarm” zanim dojdzie do poważnego załamania oddechu.

Coraz dynamiczniej rozwija się także psychiatria predykcyjna. Brzmi abstrakcyjnie? Tymczasem już dziś badane są modele, które na podstawie:

  • historii hospitalizacji psychiatrycznych,
  • wzoru przyjmowania leków,
  • wizyt u lekarza rodzinnego z powodu „niewyjaśnionych” dolegliwości somatycznych,
  • anonimowych schematów aktywności w telefonie (np. spadek kontaktów z innymi, zmiana rytmu dobowego),

próbują przewidzieć ryzyko nawrotu epizodu depresyjnego czy próby samobójczej. Chodzi nie o śledzenie jednostek, ale o uchwycenie sygnałów, że ktoś zaczyna się wycofywać, śpi o dziwnych porach, coraz częściej odwołuje wizyty. W idealnym scenariuszu zespół terapeutyczny dostaje informację „tu trzeba zadzwonić szybciej, nie czekać na kolejną planową wizytę”.

Skąd algorytm „wie”, co jest groźne? Budowa i walidacja modeli

Od hipotezy do pierwszego modelu: praca na danych historycznych

Każdy model predykcyjny zaczyna się od pozornie banalnego pytania: co chcemy przewidzieć i u kogo? Czy interesuje nas zawał w ciągu 10 lat u osób bez choroby serca, czy raczej nawrót niewydolności w ciągu 30 dni po wypisie? Ta definicja celu jest kluczowa, bo od niej zależy dobór danych, czas obserwacji i sposób oceny skuteczności.

Później przychodzi etap żmudnej pracy nad danymi historycznymi:

  • zbiera się duże zbiory danych z przychodni, szpitali, rejestrów, czasem z badań klinicznych,
  • czyści się je – usuwa duplikaty, rozwiązuje sprzeczne wpisy, uzupełnia brakujące informacje lub świadomie je wyklucza,
  • definiuje się zmienne wejściowe: co wchodzi do modelu (np. wiek, ciśnienie, konkretne parametry z morfologii), a co zostaje pominięte.

Na tej podstawie buduje się pierwszą wersję modelu. „Karmi się” go danymi z przeszłości: algorytm widzi, że dana osoba miała określony zestaw cech, a po kilku latach – doszło (lub nie) do zdarzenia, które chcemy przewidywać. Uczy się więc łączyć konfiguracje cech z późniejszymi wynikami.

Uczenie, testowanie, poprawianie: trzy osobne światy danych

Jeśli algorytm miałby „uczyć się” i jednocześnie „zdawać egzamin” na tym samym zestawie danych, byłoby to trochę jak nauka na odpowiedziach do testu. Dlatego dane dzieli się zwykle na trzy części:

  1. Zbiór treningowy – tu model uczy się wzorca, dopasowuje swoje wewnętrzne parametry.
  2. Zbiór walidacyjny – na nim sprawdza się, jak model radzi sobie na danych, których „nie widział” podczas uczenia. Na tej podstawie koryguje się złożoność modelu, dobiera jego parametry techniczne.
  3. Zbiór testowy – trzymany „na boku” aż do końca. To ostateczny sprawdzian skuteczności, bez prawa poprawki.

Jeżeli model działa świetnie na danych treningowych, ale dużo gorzej na walidacyjnych, mówimy o przeuczeniu (overfitting). To oznacza, że algorytm „nauczył się na pamięć” szumu i przypadkowych szczegółów, zamiast ogólnego wzorca. W praktyce: w badaniach naukowych wygląda imponująco, ale w realnym gabinecie zaczyna zawodzić.

Aby temu zapobiec, ogranicza się zbytnią złożoność modelu, stosuje regularizację, redukuje liczbę zmiennych lub łączy kilka prostszych algorytmów. Czasem prostszy model z mniejszą liczbą cech jest bardziej stabilny niż „super‑inteligentna” sieć neuronowa.

Jak mierzy się „dobroć” modelu? Czułość, swoistość i krzywe ROC

Skoro algorytm przewiduje ryzyko choroby, trzeba mieć sposób, by ocenić, czy robi to dobrze. Używa się do tego kilku wskaźników. Najczęściej pojawiają się:

  • czułość – jaki odsetek osób, u których faktycznie wystąpiło zdarzenie (np. zawał), został przez model oznaczony jako „wysokie ryzyko”,
  • swoistość – jaki odsetek osób, u których zdarzenie nie wystąpiło, został poprawnie oznaczony jako „niskie ryzyko”,
  • AUC/ROC (pole pod krzywą ROC) – jedna liczba podsumowująca, jak dobrze model odróżnia osoby „z przyszłym zdarzeniem” od tych „bez zdarzenia” w różnych progach odcięcia.

Jeśli AUC wynosi 0,5 – model nie jest lepszy niż rzut monetą. Jeśli zbliża się do 1 – rozdziela grupy bardzo dobrze. W praktyce klinicznej często akceptuje się wartości pośrednie, o ile model wnosi realną korzyść ponad to, co już wiemy z klasycznych skal.

Osobnym parametrem jest kalibracja, czyli zgodność między przewidywanym a rzeczywistym ryzykiem. Jeżeli algorytm „mówi”, że ryzyko zawału w ciągu 10 lat wynosi 20%, to u stu podobnych pacjentów z tej grupy około dwudziestu rzeczywiście powinno go doświadczyć, a osiemdziesięciu – nie. Jeżeli w praktyce okazuje się, że zawał ma prawie każdy albo prawie nikt, model jest źle skalibrowany, nawet jeśli ma niezłą AUC.

Walidacja zewnętrzna: prawdziwy test w innym świecie

Model, który pięknie działa w jednym szpitalu, może kompletnie się „rozsypać” w innym. Dlaczego? Bo pacjenci są starsi, mają inne choroby towarzyszące, szpital stosuje inne procedury, a nawet inaczej koduje rozpoznania. Dlatego kluczowym etapem jest walidacja zewnętrzna – sprawdzenie modelu na danych z innych ośrodków, krajów, systemów opieki.

Jeśli algorytm był trenowany w akademickim szpitalu w dużym mieście, a później testowany w małej powiatowej placówce i nadal sprawdza się dobrze, można mieć do niego większe zaufanie. Czasem okazuje się jednak, że pierwotny model trzeba „dostroić” do lokalnej populacji, np. przeskalować ryzyko albo usunąć zmienne, które w nowym miejscu nie są wiarygodnie zbierane.

Coraz częściej zamiast jednego, „sztywnego” modelu powstają frameworki, które można lokalnie adaptować: zachowują tę samą strukturę, ale pozwalają na ponowne nauczenie na danych z nowego kraju czy regionu. To trochę jak uniwersalny przepis kulinarny, który dostosowuje się do lokalnych składników.

Bias, czyli kiedy algorytm faworyzuje jednych kosztem drugich

Algorytmy są tak dobre (lub tak stronnicze), jak dane, z których się uczą. Jeśli w zbiorze treningowym dominują osoby z jednej grupy wiekowej, etnicznej czy społecznej, model może nieświadomie gorzej działać dla pozostałych. To zjawisko określa się jako bias (uprzedzenie) algorytmu.

Przykład: jeżeli model ryzyka sercowo‑naczyniowego był budowany głównie na danych mężczyzn w średnim wieku, może niedoszacowywać ryzyka u młodszych kobiet, bo ich w zbiorze było zwyczajnie za mało. Efekt? Kobieta z realnie wysokim zagrożeniem zawałem zostanie zakwalifikowana do „umiarkowanego risku” i nie dostanie leczenia, które by ją chroniło.

Aby takie sytuacje wychwycić, analizuje się skuteczność modelu osobno w różnych podgrupach:

  • według płci, wieku,
  • według regionu zamieszkania, statusu społeczno‑ekonomicznego,
  • czasem według pochodzenia etnicznego, jeżeli takie dane są zbierane i dopuszczalne prawnie.

Jeśli okazuje się, że w którejś podgrupie algorytm wyraźnie „zawodzi”, potrzebna jest korekta: uzupełnienie danych, zmiana konstrukcji modelu albo nawet osobne modele dla różnych populacji. To nie tylko kwestia statystyki, ale zwyczajnej sprawiedliwości w dostępie do dobrej opieki.

Wyjaśnialność: dlaczego algorytm podniósł alarm?

Gdy model ma wpływ na decyzje o leczeniu, pacjent i lekarz mają prawo spytać: „dlaczego taki wynik?”. Tu wchodzą narzędzia wyjaśnialnej sztucznej inteligencji. Nawet jeśli „pod spodem” pracuje złożona sieć neuronowa, można próbować wskazać, które elementy danych miały największy wpływ na decyzję.

W modelach analizujących obrazy stosuje się mapy uwagi (tzw. heatmapy), które podświetlają fragmenty zdjęcia, najbardziej „podejrzane” dla algorytmu. Radiolog widzi wtedy, że sieć skupiła się na niewielkim zagęszczeniu w jednym segmencie płuca, a nie na przypadkowym artefakcie.

W modelach tabelarycznych (np. kalkulatory ryzyka dla krwi, ciśnienia, BMI) stosuje się m.in. metody SHAP czy LIME, które dla konkretnej osoby pokazują listę czynników „ciągnących” ryzyko w górę i w dół. W efekcie lekarz może powiedzieć pacjentowi nie tylko „jest pan w grupie wysokiego ryzyka”, ale też: „najmocniej dokłada się do tego: palenie, podwyższone ciśnienie i wynik tego konkretnego badania”.

Taka transparentność ma dwa skutki uboczne – oba pozytywne. Po pierwsze, zwiększa zaufanie do systemu: decyzja nie jest „magiczna”, można ją zrozumieć i przedyskutować. Po drugie, pokazuje konkretne punkty, na które pacjent ma realny wpływ. Łatwiej mobilizować się do zmiany, gdy widać, że rzucenie palenia „odejmie” znaczący kawałek ryzyka, a nie tylko poprawi abstrakcyjne statystyki.

Od badań do codziennej praktyki: integracja z systemem ochrony zdrowia

Nawet najbardziej błyskotliwy model predykcyjny nie pomoże, jeśli pozostanie zamknięty w artykule naukowym. Prawdziwe wyzwanie zaczyna się wtedy, gdy trzeba go wpleść w codzienną pracę przychodni czy szpitala.

Po pierwsze, algorytm musi być zintegrowany z systemem informatycznym. To oznacza dostęp do aktualnych danych pacjenta (wyniki badań, leki, rozpoznania) oraz możliwość zwrotnego zapisania wyniku ryzyka w dokumentacji. Ręczne przepisywanie kilkudziesięciu parametrów do osobnej aplikacji jest drogą donikąd – po prostu nikt nie będzie miał na to czasu.

Najczęściej zadawane pytania (FAQ)

Czym dokładnie jest medycyna predykcyjna i czym różni się od klasycznej profilaktyki?

Medycyna predykcyjna to sposób opieki, w którym lekarz – przy pomocy algorytmów – szacuje prawdopodobieństwo wystąpienia określonych zdarzeń zdrowotnych w przyszłości, np. zawału, udaru, rozwoju cukrzycy czy nawrotu nowotworu. Zamiast „będzie pan chory / nie będzie pan chory” pojawia się komunikat typu: „ryzyko zawału w ciągu 10 lat wynosi około 20%”.

Klasyczna profilaktyka opiera się głównie na wieku, płci i kilku prostych parametrach (np. ciśnienie, cholesterol) oraz ogólnych zaleceniach dla całych grup ludzi. Medycyna predykcyjna idzie dalej: uwzględnia znacznie więcej czynników – również genetykę, styl życia, wyniki badań z wielu lat, a czasem dane z urządzeń wearable. Dzięki temu dwie osoby „na papierze” podobne mogą otrzymać zupełnie różne zalecenia, dopasowane do ich realnego ryzyka.

Jakie dane wykorzystują algorytmy do oceny mojego ryzyka zachorowania?

Zakres danych zależy od konkretnego modelu, ale zwykle łączy on informacje kliniczne, styl życia i – coraz częściej – dane z urządzeń cyfrowych. W praktyce są to przede wszystkim: wiek, płeć, ciśnienie tętnicze, poziom cholesterolu i glukozy, masa ciała, choroby współistniejące, wywiad rodzinny (np. zawały u rodziców), palenie tytoniu, aktywność fizyczna czy jakość snu.

Bardziej zaawansowane rozwiązania uwzględniają też:

  • wybrane markery zapalne i inne parametry z krwi,
  • informacje genetyczne (np. polimorfizmy zwiększające ryzyko określonych chorób),
  • dane z wieloletniej dokumentacji medycznej, hospitalizacji czy recept,
  • sygnały z urządzeń noszonych na nadgarstku: tętno, rytm serca, wzorce snu, poziom aktywności.

Na tej mozaice informacji algorytm uczy się, które kombinacje czynników u innych osób poprzedzały np. zawał czy udar – i przenosi tę wiedzę na twoją sytuację.

Czy medycyna predykcyjna naprawdę potrafi „przewidzieć” chorobę?

Algorytm nie „widzi przyszłości” jak w filmie science fiction. Działa raczej jak bardzo doświadczony statystyk: na podstawie danych o tysiącach lub milionach podobnych osób potrafi oszacować, jakie jest twoje prawdopodobieństwo zachorowania w określonym czasie. To różnica między stwierdzeniem „może pan kiedyś mieć zawał” a „należy pan do kilku procent osób o najwyższym ryzyku zawału w najbliższych latach”.

Te prognozy są oparte na twardych danych i sprawdzane na niezależnych grupach pacjentów. Błędy się zdarzają, bo mówimy o prawdopodobieństwie, a nie o wyroku. Natomiast dla grup pacjentów jako całości modele te znacząco poprawiają trafność oceny: pomagają wcześniej wychwycić osoby na „kursie kolizyjnym” z chorobą i zaproponować im konkretną prewencję.

Co mogę zrobić z informacją typu „ryzyko 25% w ciągu 10 lat”?

Sucha liczba sama w sobie niewiele zmienia – kluczowe jest to, co z nią zrobisz wspólnie z lekarzem. Informacja o podwyższonym ryzyku jest sygnałem, że warto rozważyć:

  • zmianę lub intensyfikację leczenia (np. wcześniejsze włączenie leków obniżających cholesterol czy ciśnienie),
  • konkretne modyfikacje stylu życia – często nie „ogólnie zdrowiej”, tylko jasno: ile ruchu, jakie zmiany w diecie, jak zadbać o sen i stres,
  • dodatkowe badania lub częstsze kontrole, aby wychwycić pierwsze niepokojące sygnały.

Dla wielu osób taka liczba staje się „kopniakiem motywacyjnym” – zamiast abstrakcyjnego „kiedyś zachoruję” pojawia się bardzo realne „mam sporą szansę na zawał przed 50., jeśli nic nie zmienię”. To pomaga zamienić statystykę na działanie.

Czy medycyna predykcyjna jest dla każdego, czy tylko dla ciężko chorych?

Zastosowania są szerokie. Część modeli służy w szpitalach do oceny ryzyka powikłań czy ponownej hospitalizacji u osób już chorych. Ale coraz więcej narzędzi jest projektowanych właśnie z myślą o ludziach „klinicznie zdrowych”, u których na zwykłym badaniu trudno jeszcze cokolwiek wychwycić. Przykład: czterdziestoparolatek z „granicznym” cholesterolem i lekkim nadciśnieniem, który w klasycznym podejściu usłyszałby tylko „proszę się trochę więcej ruszać”.

Medycyna predykcyjna ma największy sens tam, gdzie mamy realne możliwości prewencji: choroby sercowo-naczyniowe, cukrzyca typu 2, niektóre nowotwory, zaostrzenia chorób przewlekłych. Krótko mówiąc – im większa szansa, że wczesna interwencja coś zmieni, tym bardziej opłaca się precyzyjnie wyliczać ryzyko.

Czy mogę sam korzystać z „testów ryzyka” w internecie i aplikacjach?

W sieci jest sporo kalkulatorów ryzyka, ale ich jakość bywa bardzo różna. Część z nich opiera się na uznanych, zweryfikowanych modelach (np. kalkulatory ryzyka sercowo-naczyniowego rekomendowane przez towarzystwa kardiologiczne), inne są bardziej ciekawostką marketingową bez solidnego zaplecza naukowego. Różnica nie zawsze jest widoczna na pierwszy rzut oka.

Bezpieczne podejście jest proste: potraktuj samodzielnie wypełniony kalkulator jako punkt wyjścia do rozmowy z lekarzem, a nie jako ostateczny wyrok. Specjalista:

  • sprawdzi, czy narzędzie w ogóle pasuje do twojej sytuacji (wiek, choroby współistniejące, kraj, z którego pochodzą dane),
  • pomoże zinterpretować wynik w kontekście całego obrazu klinicznego,
  • przełoży procenty ryzyka na konkretne decyzje – co warto zmienić tu i teraz, a co obserwować w czasie.

Sam wynik „wysokie” lub „niskie” ryzyko, bez takiej rozmowy, łatwo albo zbagatelizować, albo niepotrzebnie się nim przestraszyć.

Czy algorytmy w medycynie predykcyjnej mogą się mylić lub być stronnicze?

Tak, zarówno pomyłki, jak i stronniczość są możliwe – i to właśnie dlatego tak duży nacisk kładzie się na jakość danych i sposób walidacji modeli. Jeśli algorytm był trenowany głównie na danych osób z jednego kraju, rasy czy grupy społecznej, może gorzej działać w innych populacjach. To trochę jak z ubraniem szytym „pod jedną sylwetkę” – na innych może leżeć średnio.

Dlatego dobre modele:

  • są testowane na niezależnych grupach pacjentów,
  • są regularnie aktualizowane, gdy pojawiają się nowe dane i wytyczne,
  • Co warto zapamiętać

  • Medycyna predykcyjna przesuwa punkt ciężkości z leczenia objawów na zapobieganie chorobie – zamiast „gasić pożar”, projektuje „budynek” tak, by do pożaru w ogóle nie doszło.
  • Algorytmy pomagają wyłapać osoby o podwyższonym ryzyku dużo wcześniej niż klasyczna profilaktyka, dzięki czemu można wdrożyć intensywniejszą prewencję i uniknąć zawału, udaru czy cukrzycy.
  • Pacjent przestaje być biernym odbiorcą zaleceń – ma rozumieć swoje ryzyko, zadawać pytania i wspólnie z lekarzem decydować, jak bardzo „dokręcić śrubę” profilaktyki.
  • Same liczby typu „25% ryzyka w 10 lat” nie mobilizują tak jak ostry ból, więc kluczowa staje się umiejętność przełożenia statystyki na konkretne decyzje: leki, zmiany stylu życia, dodatkowe badania.
  • Klasyczna profilaktyka traktuje podobnie osoby o tym samym wieku i podstawowych parametrach, podczas gdy medycyna predykcyjna uwzględnia szerszy kontekst: geny, stres, sen, historię badań z wielu lat.
  • Rozrost danych medycznych przekracza możliwości „ręcznej” analizy lekarza, dlatego to algorytmy wychwytują subtelne wzorce, które mogą oznaczać wysokie ryzyko u pozornie zdrowej osoby.
  • Modele predykcyjne nie są wróżeniem z fusów – opierają się na dużych zbiorach danych, znanych zależnościach biologicznych i statystycznych oraz weryfikacji na niezależnych grupach pacjentów.

Opracowano na podstawie

  • Predictive Medicine. Nature Medicine (2013) – Przegląd koncepcji medycyny predykcyjnej i zastosowań klinicznych
  • The future of predictive medicine: risk assessment and preventive strategies. The Lancet (2012) – Omówienie roli szacowania ryzyka i prewencji w chorobach przewlekłych
  • Principles of Risk Prediction in Medicine. New England Journal of Medicine (2019) – Podstawy budowy i walidacji modeli ryzyka klinicznego
  • Cardiovascular risk prediction in clinical practice. European Heart Journal (2019) – Modele ryzyka sercowo‑naczyniowego i ich użycie w praktyce
  • 2019 ESC/EAS Guidelines for the management of dyslipidaemias. European Society of Cardiology (2019) – Zalecenia dot. oceny ryzyka sercowo‑naczyniowego i prewencji
  • Guidelines for the primary prevention of cardiovascular disease. American College of Cardiology (2019) – Wytyczne ACC/AHA nt. kalkulatorów ryzyka i decyzji prewencyjnych
  • Polygenic risk scores for common diseases. Nature Genetics (2019) – Rola danych genetycznych w predykcji ryzyka chorób przewlekłych
  • Wearable devices in health monitoring and disease prediction. Journal of the American Medical Informatics Association (2020) – Zastosowanie danych z urządzeń noszonych w modelach predykcyjnych
  • Machine learning in medicine. The BMJ (2019) – Przegląd algorytmów uczenia maszynowego w diagnostyce i prognozowaniu
  • Ethical and legal challenges of predictive analytics in healthcare. World Health Organization (2021) – Aspekty etyczne i regulacyjne medycyny predykcyjnej