Predykcyjna analityka zdrowotna: jak przewidzieć zawał zanim wystąpi

0
6
Rate this post

W artykule znajdziesz:

Dlaczego zawał „nie spada z nieba”: nowa logika prewencji

Zawał jako proces, który trwa latami

Zawał serca większości osób kojarzy się z nagłym, dramatycznym wydarzeniem: ból w klatce piersiowej, karetka, OIOM. W biologii nic jednak nie „spada z nieba”. Zanim dojdzie do zawału, w tętnicach wieńcowych dzieje się wiele niewidocznych rzeczy – często przez lata. Na ścianach naczyń stopniowo odkładają się blaszki miażdżycowe, zmienia się elastyczność naczyń, powstają mikropęknięcia, lokalne stany zapalne, dochodzi do zaburzeń w przepływie krwi.

Organizm przez długi czas te zmiany kompensuje. Człowiek funkcjonuje „normalnie”, wyniki okresowych badań bywają tylko lekko niepokojące, a krótkie duszności czy kołatania serca zrzuca się na stres, brak snu lub przejedzenie. Dopiero w pewnym momencie dochodzi do krytycznego zdarzenia – pęknięcia blaszki, powstania zakrzepu i nagłego zamknięcia naczynia. Objaw, który widzi otoczenie, jest nagły. Sam proces dojrzewał jednak długo i to właśnie ten proces próbuje uchwycić predykcyjna analityka zdrowotna.

Jeśli spojrzeć na zawał jak na wieloletni serial, a nie pojedynczy film katastroficzny, łatwiej przyjąć, że można przewidywać kolejne odcinki: fazę „rosnącego napięcia”, zapowiedzi w postaci objawów, odchylenia w badaniach. Algorytmy ryzyka sercowo-naczyniowego i modele uczenia maszynowego w medycynie próbują zidentyfikować ten moment, kiedy serial da się jeszcze „przepisać” na spokojną kontynuację zamiast na dramatyczny finał.

Od „średniego pacjenta” do indywidualnego ryzyka

Klasyczne kalkulatory ryzyka sercowo-naczyniowego – takie jak SCORE czy modele wywodzące się z badania Framingham – zrewolucjonizowały profilaktykę, ale mają swoje granice. Opierają się na kilku podstawowych zmiennych: wieku, płci, ciśnieniu tętniczym, poziomie cholesterolu, paleniu papierosów, ewentualnie cukrzycy. Liczą ryzyko w perspektywie 10 lat na podstawie statystyk z dużych populacji. To cenne narzędzia, lecz działają na zasadzie „średniego pacjenta” – dobrze opisują grupę, ale słabiej konkretną osobę.

W praktyce dwóch mężczyzn po 55. roku życia może mieć podobne ciśnienie i poziom cholesterolu, ale zupełnie inną historię stanów zapalnych, reakcji na stres, długość snu, ekspozycję na zanieczyszczenia powietrza czy obciążenia genetyczne. Jeden ma siedzący tryb pracy i spał po 5 godzin na dobę, drugi codziennie pokonuje kilka tysięcy kroków i dobrze się regeneruje. Klasyczny kalkulator SCORE potraktuje ich bardzo podobnie, natomiast predykcyjna analityka zdrowotna, korzystająca z big data w kardiologii, może zobaczyć subtelne różnice i wskazać inny poziom ryzyka zawału serca w najbliższym czasie.

Różnica jest też w horyzoncie czasowym. Statyczne kalkulatory mówią: „ryzyko zdarzenia w ciągu 10 lat”. Modele predykcyjnej analityki zdrowotnej coraz częściej analizują ryzyko w perspektywie 6, 12 czy 24 miesięcy, a nawet w krótszych oknach czasowych, gdy biorą pod uwagę ciągłe dane z EKG czy urządzeń noszonych. Dla lekarza i pacjenta to zupełnie inny rodzaj informacji: nie abstrakcyjne „kiedyś”, ale konkretne „w ciągu przyszłego roku to ryzyko jest wyraźnie podwyższone”.

Zmiana myślenia klinicznego: od reakcji do przewidywania

Gdy kardiolog widzi przed sobą nie tylko aktualny stan pacjenta, ale także oszacowaną predykcję zawału serca w najbliższych 12–24 miesiącach, podejście do leczenia się zmienia. Pojawiają się dodatkowe pytania: czy ten pacjent wymaga szybszej modyfikacji leczenia? Czy wskazana jest dodatkowa diagnostyka obrazowa? Czy powinniśmy zaangażować dietetyka, psychologa, program rehabilitacji kardiologicznej?

Przykładowo: dwie osoby mają to samo „tu i teraz” – umiarkowanie podwyższone ciśnienie, podobne lipidy. Model predykcji zawału, bazujący na szerokim spektrum danych (wyniki badań, historia hospitalizacji, analiza EKG i sygnałów biometrycznych, aktywność fizyczna), może wskazać, że jedna z nich ma znacznie wyższe ryzyko poważnego incydentu w ciągu najbliższych 18 miesięcy. Z punktu widzenia systemu ochrony zdrowia to sygnał, by włączyć ją do intensywniejszego programu prewencyjnego, inaczej zaplanować ścieżkę pacjenta wysokiego ryzyka, a nie czekać, aż coś się wydarzy.

Takie podejście przesuwa akcent z „gaszenia pożarów” na planowanie. Lekarz przestaje być jedynie strażakiem, a staje się architektem, który wraz z pacjentem projektuje dom odporny na burze. Predykcja zawału serca nie daje nieomylnego proroctwa, ale wskazuje, że chmury zbierają się szybciej, niż sugerują same podstawowe parametry.

Historia „dobrych wyników” i złego finału

Nietrudno znaleźć w praktyce przykład pacjenta, który latami słyszał, że „wyniki mieszczą się w granicach normy”, a mimo to trafił na stół hemodynamiki z ostrym zawałem. Często był to ktoś, kto palił „tylko okazjonalnie”, miał umiarkowanie podwyższony cholesterol, ale nie na tyle, by budzić alarm, a w kalkulatorach SCORE plasował się w kategorii „umiarkowanego” ryzyka. Tymczasem żył pod dużą presją, mało spał, niewiele się ruszał, leczył się z powodu przewlekłego stanu zapalnego (np. choroby przyzębia, RZS), może miał niewykrytą insulinooporność.

Tradycyjne narzędzia oceny ryzyka sercowo-naczyniowego nie widzą wielu z tych elementów, bo ich po prostu nie „ma” w standardowych tabelach. Analityka predykcyjna, która integruje dane z dokumentacji medycznej, stylu życia, sygnałów z urządzeń i – w przyszłości – bardziej zaawansowanych markerów biologicznych, ma szansę wychwycić taką „cichą burzę” dużo wcześniej. Taki pacjent w systemie z rozwiniętą predykcją mógłby zostać oznaczony jako osoba podwyższonego ryzyka i objęty intensywniejszą opieką zanim dojdzie do incydentu.

Dłoń z długopisem analizująca kolorowe wykresy danych zdrowotnych
Źródło: Pexels | Autor: Lukas Blazek

Co to właściwie jest predykcyjna analityka zdrowotna

Od opisu przeszłości do przewidywania przyszłości

W analityce danych w medycynie mówi się o kilku poziomach zaawansowania. Najprostsza jest analityka opisowa: odpowiada na pytanie „co się stało?”. Przykład: ilu pacjentów miało zawał w danym roku, jakie mieli średnie wartości cholesterolu. Kolejny poziom to analityka diagnostyczna: „dlaczego to się stało?”. Tutaj szuka się związków przyczynowych i korelacji – np. które czynniki zwiększały prawdopodobieństwo zawału w analizowanej grupie.

Predykcyjna analityka zdrowotna idzie krok dalej i próbuje odpowiedzieć na pytanie „co się może stać w przyszłości?”. W kontekście przewidywania zawału serca chodzi o oszacowanie, z jakim prawdopodobieństwem u konkretnej osoby dojdzie do zdarzenia w określonym czasie. Jeszcze wyżej jest analityka preskrypcyjna, która dodatkowo sugeruje: „co powinniśmy zrobić, żeby poprawić wynik?”. W praktyce szpitale i przychodnie coraz częściej łączą te trzy podejścia, ale sama predykcja zawału to właśnie poziom analizy przewidującej.

Podstawowe pojęcia: model, cechy, wynik

Predykcyjna analityka zdrowotna opiera się na kilku kluczowych pojęciach. Model to matematyczny lub statystyczny opis zależności między danymi wejściowymi (np. wiek, wyniki badań, parametry z EKG) a wynikiem, którym może być np. „zawał serca w ciągu najbliższych 12 miesięcy – tak/nie”.

Każdy zestaw danych, który wprowadzamy do modelu, rozbijany jest na tzw. cechy (ang. features), czyli zmienne opisujące pacjenta. Mogą to być proste liczby (ciśnienie skurczowe, poziom LDL), wartości logiczne (pali/nigdy nie palił) albo bardziej złożone wskaźniki, wyliczone z surowych pomiarów, jak np. zmienność rytmu serca liczona z zapisu EKG czy „średnia liczba kroków dziennie w ostatnich 30 dniach”.

Wynik (output) to to, co model zwraca po „przetrawieniu” cech. Najczęściej jest to prawdopodobieństwo zdarzenia (np. 0,18 czyli 18% szansy na zawał serca w określonym przedziale czasu) albo kategoria ryzyka (niskie/umiarkowane/wysokie). Czasem modele zwracają też dodatkowe informacje, np. które cechy miały największy wpływ na taki wynik – to szczególnie istotne w tzw. explainable AI w kardiologii.

Jak modele „uczą się” z danych – analogia do lekarza rezydenta

Model predykcyjny nie powstaje z niczego. Uczy się z danych zbieranych latami w szpitalach, przychodniach, rejestrach kardiologicznych, a coraz częściej także z urządzeń noszonych i aplikacji zdrowotnych. Dobrą analogią jest lekarz rezydent, który w czasie specjalizacji ogląda setki, a z czasem tysiące przypadków. Przy każdym pacjencie uczy się, jakie kombinacje objawów, wyników badań i historii choroby zwiastują zawał, a jakie są mniej groźne.

Różnica jest taka, że model uczenia maszynowego może „zobaczyć” naraz ogromne, anonimowe zbiory danych – nawet setki tysięcy pacjentów – i szukać wzorców, które dla pojedynczego lekarza byłyby nieuchwytne. Algorytmy ryzyka sercowo-naczyniowego, oparte na regresji logistycznej, drzewach decyzyjnych, sieciach neuronowych czy metodach gradient boosting, uczą się, które kombinacje cech najczęściej poprzedzają zawał serca w określonym czasie.

Proces uczenia polega na tym, że model dostaje zestaw danych historycznych, w których znane są zarówno cechy pacjentów, jak i to, czy dany pacjent miał zawał w określonym oknie czasowym, czy nie. Na tej podstawie model stopniowo dopasowuje swoje „wewnętrzne parametry” tak, by jak najlepiej odtworzyć zaobserwowane w przeszłości zależności. Następnie testuje się go na nowych danych, których wcześniej „nie widział”, aby sprawdzić, czy potrafi przewidywać przyszłe zdarzenia u kolejnych osób.

Rodzaje modeli używanych w predykcji zawału

W praktyce kardiologicznej stosuje się zarówno proste, jak i złożone modele predykcyjne. Regresja logistyczna to klasyka – prosta, przejrzysta, pozwalająca zrozumieć, jak każda zmienna wpływa na ryzyko. To wciąż bardzo ważne narzędzie, szczególnie gdy kluczowa jest wyjaśnialność decyzji i łatwość interpretacji.

Bardziej zaawansowane algorytmy, takie jak drzewa decyzyjne, random forest, gradient boosting czy sieci neuronowe, potrafią uchwycić nieliniowe zależności i złożone interakcje między danymi. Są szczególnie przydatne, gdy chcemy łączyć różne typy informacji: dane kliniczne, wyniki badań obrazowych, analiza EKG i sygnałów biometrycznych, dane z wearables i smartwatchy oraz elementy stylu życia. Ich wadą bywa mniejsza przejrzystość („czarna skrzynka”) i większe ryzyko przeuczenia, dlatego rośnie znaczenie metod explainable AI, które potrafią wskazać np. że to właśnie brak snu, wysoka zmienność tętna nocą i niedawne pogorszenie tolerancji wysiłku szczególnie „podbiły” ryzyko u konkretnej osoby.

Wydruk EKG z zapisem pracy serca leżący na drewnianym blacie
Źródło: Pexels | Autor: Niklas Jeromin

Jakie dane pozwalają przewidzieć zawał: od cholesterolu po smartwatch

Klasyczne czynniki ryzyka – fundament, ale za mało

Wiek, płeć, ciśnienie tętnicze, stężenie cholesterolu, palenie papierosów, cukrzyca – to czynniki ryzyka miażdżycy znane od dekad. Są ważne i żaden model nie może ich ignorować. Problem w tym, że tłumaczą tylko część ryzyka. Dwie osoby z takim samym cholesterolem LDL mogą mieć zupełnie różne ryzyko zawału w najbliższym roku, jeśli jedna z nich niedawno przeszła zakażenie z silnym stanem zapalnym, zaczęła mieć epizody duszności przy niewielkim wysiłku i ma znaczące obciążenie rodzinne, a druga jest ogólnie w dobrej formie.

Predykcyjna analityka zdrowotna zakłada, że pełniejszy obraz ryzyka wymaga wyjścia poza kilka podstawowych liczb. Włącza więc do analizy dane kliniczne z systemu ochrony zdrowia, informacje o dotychczasowym leczeniu, parametry z badań obrazowych, sygnały z EKG, a coraz częściej także dane o aktywności fizycznej i śnie. Dzięki temu predykcja zawału serca staje się bardziej precyzyjna, a ścieżka pacjenta wysokiego ryzyka może być lepiej dopasowana.

Dane z dokumentacji medycznej i historii leczenia

Ogromnym źródłem informacji są dane z elektronicznej dokumentacji medycznej: karty wypisowe, opisy hospitalizacji, listy przyjmowanych leków, wyniki badań laboratoryjnych, rozpoznania współistniejące. To właśnie tam widać, czy pacjent miał już incydenty wieńcowe, epizody niewydolności serca, zaburzenia rytmu, choroby nerek, schorzenia autoimmunologiczne, czy leczy się z powodu depresji lub lęku.

Badania obrazowe serca i naczyń – zaglądanie w tętnice zanim „pękną”

Dla modeli predykcyjnych szczególnie cenne są dane, które pokazują nie tylko „chemię” krwi, ale też realny stan naczyń i serca. Chodzi o wyniki badań obrazowych: USG (w tym echo serca), tomografię komputerową, rezonans magnetyczny czy angiografię.

Przykładowo, tomografia komputerowa tętnic wieńcowych (CTCA) pozwala ocenić nie tylko stopień zwężenia naczyń, ale też rodzaj blaszki miażdżycowej. Miękkie, niestabilne blaszki są jak „balon z wodą” – na pozór mały, ale podatny na pęknięcie. Dla algorytmu predykcyjnego informacja, że w lewej tętnicy wieńcowej jest właśnie taka niestabilna zmiana, ma zupełnie inny ciężar niż spokojna, zwapniała blaszka, która latami się nie zmienia.

Z kolei echo serca dostarcza danych o frakcji wyrzutowej lewej komory, funkcji zastawek, przerostach ścian czy zaburzeniach kurczliwości. Te parametry, wplecione w model razem z historią chorób i wynikami krwi, pomagają wyłowić osoby, u których serce już pracuje „na rezerwie”, choć pacjent może jeszcze nie czuć dramatycznych objawów.

Coraz częściej do gry wchodzą też półautomatyczne opisy badań, w których system rozpoznaje określone wzorce w obrazach (np. charakterystyczny wygląd blaszki, stopień zwapnienia) i zamienia je na liczby – cechy, które model może przeanalizować. Radiolog nadal decyduje i interpretuje, ale ma wsparcie w postaci dodatkowego „oka”, które się nie męczy i nie przeoczy subtelnego szczegółu.

Sygnały z EKG i rytmu serca – mikrozaburzenia, które zwiastują kłopoty

Zapisy EKG – czy to z klasycznego 12‑odprowadzeniowego badania, czy z Holtera, czy z nowoczesnych patchy noszonych kilka dni – to kopalnia danych. Człowiek zwykle widzi odchylenia w głównych odstępach i załamkach, ale algorytm potrafi przeanalizować sygnał fala po fali, zauważając mikrozaburzenia w przewodzeniu czy zmienność rytmu serca, które wykraczają poza ludzką percepcję.

Przykładem jest zmienność rytmu serca (HRV). U zdrowej osoby rytm nie jest „jak z metronomu” – drobne odchylenia są oznaką dobrej regulacji autonomicznej. Gdy HRV przewlekle się obniża, szczególnie w połączeniu z bezsennością, nadciśnieniem i przewlekłym stresem, dla modelu to sygnał, że układ sercowo‑naczyniowy jest stale „na wysokich obrotach”.

Modele predykcji zawału mogą włączać do analizy m.in.:

  • częstość epizodów tachykardii i bradykardii,
  • występowanie niemego niedokrwienia (krótkie, bezobjawowe odcinki niedokrwienia widoczne w Holterze),
  • początki zaburzeń rytmu, np. napadowe migotanie przedsionków,
  • czas trwania i morfologię zespołów QRS, odcinka ST, załamków T.

Jeśli u pacjenta pojawiają się coraz częstsze, dyskretne zmiany w zapisie z Holtera, a jednocześnie z danych z zegarka wynika, że jego tętno spoczynkowe „pełza” w górę i gorzej śpi, algorytm może „zbić to w całość” i podnieść wynik ryzyka, nawet jeśli LDL jest jeszcze w normie.

Dane z urządzeń noszonych – serce obserwowane 24/7

Gabinety i szpitale pokazują wycinek rzeczywistości – kilkanaście minut pomiarów, czasem doba. Tymczasem zawał często poprzedza tygodnie subtelnych sygnałów: gorsze tolerowanie wysiłku, wzrost tętna spoczynkowego, spadek aktywności, urwany sen. Tego typu trendy najlepiej wychwycą urządzenia, które są z pacjentem stale: smartwatche, opaski fitness, inteligentne pierścienie.

Nie chodzi o pojedynczy pomiar, lecz o wzorzec w czasie. Model może analizować m.in.:

  • średnią liczbę kroków dziennie i jej zmienność z tygodnia na tydzień,
  • czas snu, jego ciągłość i udział głębokich faz,
  • tętno spoczynkowe i czas powrotu do tętna spoczynkowego po wysiłku,
  • epizody nieprawidłowego rytmu wykrywane przez zegarek.

Jeżeli ktoś, kto dotąd robił 8–10 tysięcy kroków dziennie, nagle przez kilka tygodni nie przekracza 3 tysięcy, częściej się zatrzymuje podczas spaceru, a zegarek zgłasza nietypowe skoki tętna – to cichy sygnał, że coś się zmienia. Lekarz w gabinecie może tego nie wiedzieć, ale system predykcji, który periodcznie „zaciąga” takie dane (za zgodą pacjenta), widzi wyraźnie: trend jest niepokojący.

Styl życia, stres i czynniki psychospołeczne – „miękkie” dane, twardy wpływ na ryzyko

W klasycznych tabelach ryzyka rzadko pojawiają się pytania o to, jak śpisz, ile godzin dziennie siedzisz, czy masz kogo poprosić o pomoc, gdy chorujesz. Tymczasem czynniki psychospołeczne i styl życia mają ogromny wpływ na ryzyko zawału, zwłaszcza w perspektywie najbliższych miesięcy czy roku.

Modele predykcyjne mogą uwzględniać m.in.:

  • liczbę godzin snu i jego regularność,
  • palenie (także e‑papierosy), spożycie alkoholu, epizody „zakupów” alkoholu w danych transakcyjnych – jeśli są do tego odpowiednie ramy prawne i zgoda,
  • poziom odczuwanego stresu (subiektywne ankiety, dane z aplikacji),
  • wskaźniki samotności, wypalenia zawodowego, niestabilności finansowej,
  • częstość wizyt z powodu bólów w klatce, kołatań czy bezsenności, które nie dostały jednoznacznego rozpoznania.

Wyobraźmy sobie 52‑latka z „przyzwoitym” cholesterolem, ale z danych wynika, że w ostatnich miesiącach: mocno spadła mu aktywność, przybrał na wadze, zaczął palić, bierze zwolnienia z pracy, korzysta z poradni psychiatrycznej z powodu depresji. Takie połączenie dla klasycznego kalkulatora może brzmieć: „umiarkowane ryzyko, kontrola za rok”. Dla modelu, który widzi ciągły wzrost obciążenia psychospołecznego i pogarszający się styl życia, jest to często wyraźne czerwone światło.

Markery zapalne, metaboliczne i genetyczne – dodatkowe „warstwy” ryzyka

Coraz więcej placówek zaczyna dołączać do modeli predykcyjnych tzw. zaawansowane biomarkery. To różne wskaźniki z krwi, które pokazują, czy w organizmie toczy się przewlekły stan zapalny, zaburzony metabolizm lub szybka progresja miażdżycy.

Często analizowane są m.in.:

  • CRP wysokoczułe (hs‑CRP), IL‑6 i inne markery stanu zapalnego,
  • markery uszkodzenia mięśnia sercowego poniżej progu klasycznej „ostrej” diagnostyki (np. wysokoczuła troponina w górnej granicy normy),
  • profil lipidowy rozszerzony – lipoproteina(a), poziom małych gęstych LDL,
  • parametry gospodarki węglowodanowej – insulina na czczo, HOMA‑IR, krzywa cukrowa,
  • niektóre polimorfizmy genetyczne związane z ryzykiem przedwczesnej miażdżycy (w starannie dobranych populacjach).

Takie dane są jak dodatkowa „warstwa obrazu”. Dwie osoby z identycznym cholesterolem całkowitym mogą mieć dramatycznie różne ryzyko, jeśli jedna ma bardzo wysokie lipoproteinę(a), przewlekle podniesione CRP i ślady niestabilnej blaszki w tomografii, a druga – prawidłowe markery zapalne i spokojny obraz naczyń. Model, który widzi te niuanse, będzie znacznie lepiej przewidywał, u kogo zawał jest niemal „za rogiem”.

Lekarz z stetoskopem trzyma czerwone serce, podkreślając opiekę kardiologiczną
Źródło: Pexels | Autor: www.kaboompics.com

Od surowych danych do sygnałów ostrzegawczych: jak powstaje model predykcji zawału

Przygotowanie danych – medyczne „sprzątanie” przed analizą

Surowe dane medyczne są jak karton z dokumentami po remoncie – pełen duplikatów, błędów, braków. Zanim jakikolwiek model zacznie się na nich uczyć, trzeba je uporządkować i ujednolicić. To mało spektakularny, ale kluczowy etap.

W praktyce oznacza to m.in.:

  • standaryzację jednostek (np. mmol/l vs mg/dl dla cholesterolu),
  • usuwanie oczywistych błędów (wiek 230 lat, tętno 1000/min),
  • uzgadnianie nazw rozpoznań z klasyfikacją ICD lub inną przyjętą terminologią,
  • łączenie danych z różnych systemów (laboratorium, poradnia, SOR) w jedną, spójną „historię” pacjenta,
  • anonimizację / pseudonimizację, tak by chronić prywatność.

Jeśli ten etap jest wykonany byle jak, model może „nauczyć się” błędów systemu, a nie rzeczywistych zależności klinicznych. To trochę jak z młodym lekarzem, który uczy się z nieporządnych kart – później powiela cudze pomyłki.

Wybór cech – sztuka decydowania, co naprawdę ma znaczenie

Kolejny krok to selekcja cech. Teoretycznie można wrzucić do modelu wszystko, co jest w bazie, od numeru kodu pocztowego po poziom potasu sprzed dziesięciu lat. W praktyce trzeba podjąć decyzję, które zmienne mają medyczny sens i dostarczają wartościowej informacji, a które jedynie hałasują.

Często stosuje się podejście mieszane:

  • najpierw lekarze i analitycy wybierają zestaw „oczywistych” czynników (wiek, płeć, ciśnienie, LDL, cukrzyca, przebyte incydenty, parametry z badań),
  • potem algorytmy selekcji cech badają, które z pozostałych zmiennych rzeczywiście poprawiają jakość predykcji,
  • cechy silnie skorelowane ze sobą (np. kilka bardzo podobnych wskaźników z tego samego badania) są redukowane, by nie „zagłuszać” modelu.

Dobrze dobrane cechy sprawiają, że model jest nie tylko skuteczniejszy, ale i bardziej interpretowalny. Jeśli algorytm bazuje na parametrach, które lekarz rozumie, łatwiej mu zaufać wynikowi i wbudować go w proces decyzyjny.

Uczenie modelu – od pierwszych prób do stabilnego narzędzia

Gdy zestaw cech jest gotowy, a dane oczyszczone, przychodzi czas na właściwe uczenie modelu. Najczęściej dzieli się zbiór danych na trzy części:

  • zbiór treningowy – do „nauki” modelu,
  • zbiór walidacyjny – do strojenia hiperparametrów (np. głębokości drzewa, liczby neuronów),
  • zbiór testowy – do końcowej oceny, jak model radzi sobie z danymi, których nigdy nie widział.

Podczas uczenia model iteracyjnie koryguje swoje parametry, porównując przewidywania z rzeczywistymi zdarzeniami (czy pacjent miał zawał w zadanym okresie, czy nie). W tle korzysta z różnych funkcji strat i technik optymalizacji, ale z perspektywy lekarza kluczowe jest jedno pytanie: czy na nowych danych ten model działa równie dobrze, jak na starych?

Jeśli na zbiorze treningowym wynik jest znakomity, a na testowym dramatycznie spada, to znak przeuczenia (overfittingu). To tak, jakby rezydent znał na pamięć odpowiedzi z jednego podręcznika, ale gubił się przy prawdziwych pacjentach. Dlatego modele predykcyjne przechodzą wielokrotne rundy strojenia, aż osiągną rozsądny kompromis między złożonością a uogólnieniem.

Walidacja kliniczna – czy to działa na „prawdziwych” pacjentach?

Nawet najlepszy wynik statystyczny to za mało. Model predykcji zawału musi zostać sprawdzony w realnym świecie. Oznacza to walidację kliniczną: testowanie algorytmu na pacjentach z innych ośrodków, z innych regionów czy nawet krajów, o zróżnicowanym profilu demograficznym.

Sprawdza się wtedy m.in.:

  • czułość – ilu pacjentów, którzy rzeczywiście mieli zawał, model oznaczył jako wysokiego ryzyka,
  • specyficzność – ilu osób bez zawału nie uznano fałszywie za wysokie ryzyko,
  • AUC/ROC – ogólną zdolność modelu do odróżniania osób z wydarzeniem od tych bez wydarzenia,
  • kalibrację – czy przewidywane prawdopodobieństwo (np. 20%) odpowiada faktycznej częstości zdarzeń.

Jeśli w jednej populacji model działa znakomicie, a w innej już nie, konieczne bywa jego przestrojenie lub opracowanie osobnych wersji dla różnych grup (np. dla pacjentów po już przebytym zawale vs dla osób bez wcześniejszych incydentów).

Monitorowanie po wdrożeniu – model żyje razem z systemem ochrony zdrowia

Gotowy algorytm, nawet świetnie zwalidowany, nie jest rzeźbą z marmuru. To raczej „żywy organ” wbudowany w system opieki zdrowotnej. Z czasem zmienia się populacja pacjentów, leki, wytyczne, a nawet nawyki żywieniowe społeczeństwa – jeśli model nie będzie monitorowany, zacznie powoli „rozjeżdżać się” z rzeczywistością.

Dlatego po wdrożeniu prowadzi się systematyczne monitorowanie wydajności modelu. Obejmuje ono nie tylko wskaźniki statystyczne, lecz także analizę, jak często alerty faktycznie prowadzą do istotnych interwencji klinicznych. Jeśli w danym ośrodku zaczyna gwałtownie rosnąć odsetek fałszywych alarmów, to sygnał, że trzeba przyjrzeć się kalibracji lub kontekstowi użycia.

W praktyce zespół kliniczno‑analityczny co jakiś czas zadaje kilka prostych pytań:

  • czy profile pacjentów z najwyższym przewidywanym ryzykiem rzeczywiście pokrywają się z tym, co widzimy w gabinecie,
  • czy w grupie, którą model uznaje za niskiego ryzyka, nie zaczynają pojawiać się „niespodziewane” zawały,
  • czy progi ryzyka i sposób prezentacji wyników nadal pasują do aktualnych wytycznych i organizacji pracy.

Czasem zmiana jednego elementu systemu – na przykład szersze wprowadzenie nowych leków obniżających LDL – wymaga przeliczenia modelu lub wręcz ponownego uczenia na nowszych danych. Bez tego algorytm może oceniać ryzyko na podstawie świata, którego już nie ma.

Bezpieczeństwo i etyka – jak nie zamienić prognozy w narzędzie dyskryminacji

Prognoza zawału brzmi bardzo medycznie, ale konsekwencje jej użycia wykraczają daleko poza gabinet. W tle są pytania o dostęp do ubezpieczeń, zatrudnienie, kredyty. Dlatego systemy predykcyjne muszą być projektowane z myślą nie tylko o skuteczności, lecz także o sprawiedliwości i ochronie pacjentów.

Jednym z kluczowych problemów są biasy (uprzedzenia) w danych. Jeśli w przeszłości dana grupa (np. osoby z obszarów wiejskich albo kobiety w średnim wieku) miała utrudniony dostęp do diagnostyki, to model może nauczyć się, że „tam nic się nie dzieje”, bo zdarzenia po prostu nie były rejestrowane. Efekt? Zaniżone ryzyko w grupie, która i tak jest często pomijana.

Dlatego podczas projektowania i walidacji modelu analizuje się jego działanie w podgrupach: ze względu na płeć, wiek, miejsce zamieszkania czy status społeczno‑ekonomiczny. Jeśli okazuje się, że w jakiejś grupie ryzyko jest systematycznie niedoszacowywane lub zawyżane, to sygnał do korekty:

  • dodania brakujących czynników specyficznych dla danej populacji,
  • przeważenia danych (by rzadziej reprezentowane grupy miały „silniejszy głos”),
  • czy nawet stworzenia odrębnych wersji modelu.

Pojawia się też kwestia dostępu do prognoz. Algorytmy predykcyjne, które mogą wpływać na szanse na leczenie czy badania profilaktyczne, nie powinny być używane przez ubezpieczycieli czy pracodawców w celu wykluczania „ryzykownych” osób. To wymaga jasnych regulacji prawnych, ale również ostrożności po stronie twórców systemów – np. poprzez projektowanie rozwiązań ściśle osadzonych w publicznym systemie ochrony zdrowia, z mocnym reżimem ochrony danych.

Jak czytać „prognozę zawału”: interpretacja wyników przez lekarza i pacjenta

Ryzyko bezwzględne, względne i „ryzyko na oko” – skąd biorą się nieporozumienia

Informacja „ma Pan 18% ryzyka zawału w ciągu najbliższych 5 lat” może wywołać trzy zupełnie różne reakcje: od paniki po wzruszenie ramionami. Część nieporozumień wynika z tego, że język ryzyka jest trudny – zarówno dla pacjentów, jak i dla lekarzy.

Modele predykcyjne najczęściej podają ryzyko bezwzględne – czyli szacowane prawdopodobieństwo, że w określonym czasie wydarzy się zawał. Pacjenci jednak spontanicznie porównują to do „ryzyka względnego”: co to znaczy względem osób w moim wieku, względem wcześniejszej wizyty, względem sąsiada?

Dlatego suchą liczbę warto przełożyć na porównanie. Zamiast mówić: „ma Pan 18% ryzyka”, można doprecyzować: „w grupie osób takich jak Pan, przy dotychczasowym leczeniu, mniej więcej osiemnastu na stu mężczyzn w Pana wieku ma zawał w ciągu 5 lat; u osoby o podobnym wieku, ale bez nadciśnienia i z niższym cholesterolem byłoby to mniej więcej <emkilku na stu”. Taki kontekst pomaga osadzić prognozę w rzeczywistości.

Progi decyzyjne – kiedy „wysokie ryzyko” naprawdę coś zmienia

Sam wynik procentowy to jeszcze nie decyzja. Kluczowe jest zdefiniowanie progów ryzyka, przy których zmienia się działanie lekarza. Mogą one dotyczyć:

  • rozpoczęcia lub intensyfikacji leczenia farmakologicznego (np. dodanie drugiego leku obniżającego LDL),
  • kierowania na dodatkową diagnostykę (np. tomografię naczyń wieńcowych, test wysiłkowy),
  • częstości wizyt kontrolnych i badań laboratoryjnych,
  • intensywności interwencji w styl życia (programy redukcji masy ciała, rehabilitacja kardiologiczna).

Przykładowo, ośrodek może ustalić, że osoby z 5‑letnim ryzykiem powyżej określonego progu trafiają do „ścieżki intensywnej prewencji” – z częstszym monitorowaniem, wsparciem dietetyka i psychologa. Bez jasnego powiązania progów z działaniami model staje się tylko ciekawym gadżetem, który niczego realnie nie zmienia.

Warto również rozróżnić progi dla ostrych interwencji (np. pilna konsultacja w przypadku gwałtownego wzrostu ryzyka u osoby z objawami) od progów dla długofalowego planowania (np. decyzja o włączeniu statyny u 45‑latka bez dolegliwości). To dwa różne światy decyzyjne, choć korzystają z tego samego algorytmu.

Interpretowalność – dlaczego „czarne pudełko” budzi opór

Model, który podaje jedną liczbę bez wyjaśnienia, jest jak lekarz, który mówi: „proszę przyjąć ten lek, bo tak uważam”. Część osób zaufa, ale wielu będzie się buntować. Dlatego coraz większy nacisk kładzie się na interpretowalność modeli predykcyjnych.

W praktyce oznacza to pokazanie nie tylko wyniku, lecz także głównych czynników, które do niego doprowadziły. Może to być prosta lista typu:

  • „Główne czynniki zwiększające Pana ryzyko: wysokie ciśnienie, palenie, podwyższony LDL, mała aktywność fizyczna”.
  • „Czynniki działające ochronnie: brak cukrzycy, prawidłowa masa ciała, dobre wyrównanie glikemii”.

W bardziej zaawansowanych systemach stosuje się techniki takie jak SHAP czy LIME, które pozwalają zobaczyć, jak każdy z parametrów wpłynął na końcowe oszacowanie ryzyka u konkretnej osoby. Dla lekarza to narzędzie do rozmowy: może pokazać pacjentowi, że np. samo obniżenie ciśnienia i rzucenie palenia w symulacji obniża prognozowane ryzyko niemal o połowę.

Takie „rozbicie” wyniku ma jeszcze jedną zaletę – pozwala szybciej wykryć nonsens. Jeśli u młodej, wysportowanej osoby model nagle wypluwa bardzo wysokie ryzyko, lekarz może zajrzeć w listę czynników i zorientować się, czy nie doszło do błędu danych (np. błędnie przypisanego rozpoznania).

Rozmowa z pacjentem – od fatalistycznego „jest Pan tykającą bombą” do planu działania

To, jak lekarz poda wynik, bywa ważniejsze niż sam procent. Informacja o wysokim ryzyku łatwo zamienia się w fatalistyczne „i tak się wydarzy” albo w mechaniczne „dostaje Pan kolejny lek i do widzenia”. Tymczasem sens predykcji polega właśnie na tym, aby dać czas na zmianę kursu.

Pomaga prosta struktura rozmowy:

  1. Opis sytuacji obecnej – „na dziś Pana ryzyko w ciągu 5 lat jest wyraźnie podwyższone względem osób w Pana wieku”.
  2. Wskazanie czynników modyfikowalnych – „największy udział mają tu nadciśnienie, palenie i mała aktywność”.
  3. Pokazanie potencjału zmiany – „jeśli uda nam się obniżyć ciśnienie i rzuci Pan palenie, model przewiduje spadek ryzyka mniej więcej o tyle‑a‑tyle”.
  4. Ustalenie kroków – konkretny plan: leki, konsultacje, małe cele na najbliższe tygodnie.

Pacjenci często reagują na obrazowe porównania. Można powiedzieć: „dziś jedzie Pan autem 140 km/h w terenie zabudowanym – z dużą szansą na wypadek. My chcemy razem zejść poniżej setki, a najlepiej jeszcze niżej. Model mówi nam, które pedały trzeba wcisnąć: hamulec to leki i rzucenie palenia, sprzęgło to ruch i sen”. Taka metafora zmienia abstrakcyjne „18%” w coś, na co można mieć wpływ.

Modele a klasyczne wytyczne – konflikt czy uzupełnienie?

Niektórzy lekarze obawiają się, że zaawansowane algorytmy zastąpią wytyczne i dotychczasowe kalkulatory ryzyka. W praktyce lepiej traktować je jako kolejną parę oczu, a nie sędziego najwyższej instancji.

W wielu ośrodkach model predykcyjny jest „nakładką” na istniejące narzędzia (np. SCORE2). Najpierw używa się standardowego kalkulatora, aby osadzić pacjenta w znanym schemacie; dopiero potem zagląda się do modelu, który uwzględnia więcej danych: z zegarka, z historii hospitalizacji, z trendów badań. Jeśli obie metody są zgodne – decyzja jest prostsza. Jeśli się różnią, to sygnał, by przyjrzeć się sprawie dokładniej.

Na przykład: 48‑latek z umiarkowanym ryzykiem według klasycznej tabeli, ale z gwałtownym pogorszeniem parametrów snu, rosnącą masą ciała i epizodami bólu w klatce odnotowanymi w dokumentacji SOR. Model może wyłapać ten „żółty alarm” wcześniej niż prosta tabela. Lekarz ma wtedy argument, by szybciej zintensyfikować diagnostykę, zamiast czekać do „rutynowej kontroli za rok”.

Niepewność prognozy – dlaczego model powinien przyznać się do wątpliwości

Żaden algorytm nie jest wyrocznią. Czasem dane są niepełne, czasem pacjent jest tak „nietypowy”, że model nie ma się na czym oprzeć. Uczciwy system powinien umieć powiedzieć: „tu moja pewność jest ograniczona”.

Technicznie można to pokazać jako przedział ufności albo wskaźnik jakości predykcji. Przykład: zamiast jednego wyniku 15% system podaje „15%, przedział 10‑22%, niska pewność ze względu na brak danych o aktywności i niewielką liczbę podobnych pacjentów w zbiorze uczącym”. Dla lekarza to sygnał, że decyzja wymaga szczególnie uważnej, indywidualnej oceny, a nie automatycznego zaufania algorytmowi.

Niepewność można też redukować, uzupełniając brakujące dane: aktualizując badania, sięgając po wywiad dotyczący snu, stresu czy objawów. Często już jedna dodatkowa informacja – choćby o paleniu – znacząco „zwęża” ten przedział i czyni predykcję bardziej użyteczną.

Rola pacjenta w kształtowaniu własnej prognozy – od biernego odbiorcy do współautora

Najciekawszy aspekt predykcyjnej analityki zaczyna się wtedy, gdy pacjent przestaje być tylko adresatem prognozy, a staje się jej współtwórcą. Nowe systemy pozwalają na tzw. what‑if analysis – symulację, jak zmieni się ryzyko, jeśli konkretne elementy stylu życia czy leczenia ulegną poprawie.

Wyobraźmy sobie prosty interfejs, w którym pacjent widzi słupki: „dzisiejsze ryzyko” oraz „ryzyko przy rzuceniu palenia”, „ryzyko przy rzuceniu palenia i zwiększeniu ruchu” itd. Nie chodzi o magiczne obietnice, tylko o pokazanie kierunku i skali: mała zmiana czasem niewiele daje, ale połączenie kilku interwencji może robić kolosalną różnicę.

Takie narzędzie zmienia dynamikę wizyty. Zamiast abstrakcyjnego „musi Pan schudnąć”, lekarz i pacjent wspólnie „przeklikują” różne scenariusze i wybierają ten, który jest jednocześnie skuteczny i realistyczny. Dla części osób ogromną motywacją jest świadomość, że nie są skazani na jedną liczbę – że ich wykres ryzyka jest ruchomy, zależny od codziennych decyzji.

Najczęściej zadawane pytania (FAQ)

Czy naprawdę da się przewidzieć zawał serca zanim wystąpi?

Nie da się wskazać konkretnej daty i godziny zawału, ale można oszacować, czy w najbliższych miesiącach ryzyko jest wyraźnie podwyższone. Predykcyjna analityka zdrowotna łączy wiele rodzajów danych – od klasycznych badań krwi i ciśnienia, przez historię chorób, po styl życia i zapisy EKG – i na tej podstawie ocenia prawdopodobieństwo incydentu.

To trochę jak z prognozą pogody: nikt nie zagwarantuje burzy o 17:03, ale meteorolog potrafi powiedzieć, że „dziś po południu są duże szanse na gwałtowne opady”. W kardiologii oznacza to informację: „w ciągu najbliższych 6–24 miesięcy Twoje ryzyko zawału jest dużo wyższe niż u osoby o podobnym wieku, ale z innym profilem zdrowotnym i trybem życia”.

Jakie dane są wykorzystywane do przewidywania zawału serca?

Podstawą są klasyczne czynniki: wiek, płeć, ciśnienie tętnicze, poziom cholesterolu, palenie tytoniu, cukrzyca. Predykcyjna analityka zdrowotna dokłada do tego znacznie szerszy zestaw informacji, które wcześniej były pomijane lub analizowane „na oko”.

Modele mogą uwzględniać m.in.:

  • pełną historię chorób (np. przewlekłe stany zapalne, RZS, choroby przyzębia),
  • wyniki wielu badań z kilku lat, a nie tylko pojedynczy pomiar,
  • analizę zapisów EKG i echokardiografii,
  • dane o aktywności fizycznej i śnie (np. z zegarków, opasek),
  • informacje o przewlekłym stresie, lekach, hospitalizacjach,
  • czynniki środowiskowe, takie jak zanieczyszczenie powietrza.

Im bogatszy, lepiej opisany profil pacjenta, tym większa szansa na wychwycenie „cichej burzy”, zanim da o sobie znać ostrym zawałem.

Czym różni się predykcyjna analityka zdrowotna od kalkulatora SCORE czy Framingham?

Klasyczne kalkulatory (SCORE, Framingham) liczą ryzyko na podstawie kilku zmiennych i statystyk całych populacji. Dają odpowiedź w stylu: „masz X% ryzyka zawału lub udaru w ciągu 10 lat”, traktując pacjenta jak reprezentanta dużej grupy. Działają dobrze „średnio”, ale gorzej radzą sobie z indywidualnymi niuansami.

Predykcyjna analityka zdrowotna:

  • uwzględnia znacznie więcej cech pacjenta (dziesiątki, a nawet setki zmiennych),
  • analizuje ryzyko w krótszym horyzoncie czasowym – często 6, 12 lub 24 miesiące,
  • może korzystać z danych zbieranych ciągle (np. EKG z urządzeń noszonych),
  • lepiej odróżnia dwie osoby o „podobnych wynikach na papierze”, ale zupełnie innym trybie życia i historii zdrowotnej.

Dzięki temu lekarz dostaje nie tylko informację „w grupie podobnych pacjentów zwykle bywa tak”, ale bardziej osobisty profil: „u tej konkretnej osoby ryzyko rośnie szybciej niż wskazywałyby same wyniki cholesterolu i ciśnienia”.

Czy jeśli moje wyniki są w normie, to predykcja zawału i tak ma sens?

Tak, bo „norma” to dość szeroki parasol. Wiele osób latami ma wyniki na granicy normy, lekkie odchylenia albo wahające się parametry i słyszy: „jest w porządku, proszę obserwować”. Tymczasem, gdy spojrzy się na całość danych z kilku lat, wyłania się inny obraz – np. stopniowy wzrost ciśnienia, nawracające stany zapalne, coraz gorsza jakość snu.

Predykcyjna analityka zdrowotna jest właśnie po to, by nie przegapić takiego scenariusza: „wszystko prawie dobre, a jednak coś się tli”. Możliwe, że model oceni Twoje ryzyko jako niskie i potwierdzi, że obecne działania profilaktyczne są wystarczające. Ale bywa też odwrotnie – u osoby z „ładnymi” pojedynczymi wynikami wyjdzie, że w ciągu najbliższych 12–18 miesięcy ryzyko zawału jest wyraźnie powyżej przeciętnej i warto wprowadzić zmiany wcześniej.

Jak lekarz wykorzystuje informacje z modeli predykcyjnych w praktyce?

Dla lekarza predykcja zawału to dodatkowe „trzecie oko”, a nie wyrocznia. Na podstawie prognozy na 6–24 miesiące kardiolog może np. szybciej zmodyfikować leczenie, zlecić dokładniejsze badania obrazowe, zaproponować intensywniejszy program kontroli ciśnienia czy cholesterolu.

W praktyce wygląda to tak: dwóch pacjentów ma podobne wyniki „tu i teraz”, ale model wskazuje, że jeden z nich ma kilkukrotnie wyższe ryzyko incydentu w najbliższym czasie. Tę osobę częściej zaprosi się na wizyty kontrolne, szybciej wdroży rehabilitację kardiologiczną, skieruje do dietetyka czy psychologa. Chodzi o to, by „przepisać scenariusz” zanim dojdzie do dramatycznego finału.

Czy algorytmy przewidujące zawał serca są bezpieczne i wiarygodne?

Modele predykcyjne są tworzone i testowane na dużych zbiorach danych medycznych, często obejmujących setki tysięcy pacjentów. Zanim trafią do praktyki klinicznej, ich skuteczność i ograniczenia są oceniane naukowo – sprawdza się m.in., jak dobrze odróżniają osoby, u których doszło do zawału, od tych, u których do incydentu nie doszło.

Trzeba jednak jasno powiedzieć: to narzędzia pomocnicze. Żaden „algorytm z komputera” nie zastępuje badania lekarskiego i rozmowy z pacjentem. Dobrze zbudowany system predykcyjny podpowiada: „tu może być problem, przyjrzyj się temu pacjentowi uważniej”, ale ostateczne decyzje co do diagnostyki i leczenia podejmuje lekarz, biorąc pod uwagę cały kontekst kliniczny i wartości pacjenta.

Czy wearable (zegarki, opaski) naprawdę mogą pomóc przewidzieć zawał?

Same w sobie – nie „przewidzą” zawału. Jednak jako źródło dodatkowych danych mogą być bardzo użyteczne. Urządzenia noszone na nadgarstku potrafią rejestrować tętno, jego zmienność, szacować jakość snu, a niektóre – wykonywać proste pomiary EKG czy wykrywać nieregularny rytm serca.

Źródła

  • 2019 ESC Guidelines for the diagnosis and management of chronic coronary syndromes. European Society of Cardiology (2019) – Patofizjologia choroby wieńcowej, blaszki miażdżycowe, stabilna niestabilna choroba
  • 2019 ESC/EAS Guidelines for the management of dyslipidaemias. European Society of Cardiology (2019) – Rola cholesterolu, miażdżycy i modyfikacji ryzyka sercowo-naczyniowego
  • SCORE2 risk prediction algorithms: new models to estimate 10-year risk of cardiovascular disease in Europe. European Heart Journal (2021) – Aktualizacja modeli SCORE2, różnice w szacowaniu ryzyka w populacjach europejskich
  • Prediction of cardiovascular risk using Framingham risk score and newer risk markers. Circulation (2008) – Klasyczny model Framingham, ograniczenia w indywidualnej predykcji ryzyka
  • Global Strategy for the Prevention and Control of Noncommunicable Diseases. World Health Organization (2000) – Koncepcja czynników ryzyka, prewencja zawału w perspektywie populacyjnej
  • Big data and machine learning in health care. JAMA (2018) – Zastosowania big data i uczenia maszynowego w medycynie, w tym w kardiologii
  • Machine Learning in Cardiovascular Medicine. Academic Press (2019) – Przegląd modeli ML do predykcji zdarzeń sercowo-naczyniowych i analizy EKG
  • Wearable devices in cardiovascular medicine. European Heart Journal – Digital Health (2020) – Rola urządzeń noszonych, ciągłe monitorowanie i krótkookresowa predykcja ryzyka
  • Chronic inflammation and risk of coronary heart disease in apparently healthy men. New England Journal of Medicine (1997) – Związek przewlekłego stanu zapalnego z ryzykiem zawału u osób bez jawnej choroby
  • Air pollution and cardiovascular disease: a statement for healthcare professionals. American Heart Association (2010) – Wpływ zanieczyszczeń powietrza na ryzyko zawału i innych zdarzeń sercowo-naczyniowych

Poprzedni artykułCzy algorytmy będą decydować o refundacji leków i dostępie do terapii
Zbigniew Nowakowski
Prawnik specjalizujący się w ochronie danych medycznych i regulacjach dotyczących cyfrowego zdrowia. Doradza podmiotom medycznym i firmom technologicznym w zakresie RODO, bezpieczeństwa informacji oraz odpowiedzialności za działanie systemów AI. Na łamach serwisu wyjaśnia zawiłe przepisy w przystępny sposób, pokazując ich praktyczne skutki dla pacjentów, lekarzy i twórców aplikacji. Każdy tekst opiera na aktualnym orzecznictwie, oficjalnych wytycznych i analizie ryzyk. Szczególnie interesuje go etyczne wykorzystanie danych zdrowotnych i transparentność algorytmów w medycynie przyszłości.