Scenka startowa: od niewinnej aplikacji po zaskakujący raport z danych
Gdy przypomnienie o lekach mówi o tobie zbyt wiele
Osoba po trzydziestce instaluje prostą aplikację: licznik kroków z funkcją monitorowania snu. Dwa miesiące później telefon przypomina jej nie tylko o ruchu, ale „delikatnie” sugeruje ograniczenie wieczornego jedzenia, bo wzorce snu wyglądają na zaburzone. Po chwili pojawiają się reklamy suplementów na stres i ubezpieczenia na wypadek chorób serca. Nikt nie zadawał jej bezpośrednich pytań o zdrowie, a jednak systemy wokół niej zachowują się tak, jakby znały szczegóły jej stanu zdrowia.
Taka sytuacja nie jest ani wyjątkowa, ani wyłącznie „technologiczną ciekawostką”. Dane zdrowotne to już nie tylko opis choroby w historii leczenia. To też to, ile śpisz, jak szybko chodzisz, gdzie robisz zakupy, jakie leki kupujesz bez recepty i co wyszukujesz w internecie późnym wieczorem. Sztuczna inteligencja w medycynie i usługach okołozdrowotnych łączy te strzępy informacji w spójny profil, który może zostać użyty do diagnostyki, ale też marketingu, wyceny ubezpieczeń lub oceny ryzyka kredytowego.
Moment, w którym orientujesz się, że systemy AI „wiedzą” o tobie zaskakująco dużo, zwykle przychodzi nagle – wraz z dziwnie trafną reklamą, automatycznym raportem zdrowotnym albo ofertą ubezpieczenia „dokładnie pod twoje ryzyko”. Wtedy pojawia się pytanie: jakie dane zostały wykorzystane, co dokładnie z nimi zrobiono i czy w ogóle potrafisz wycofać zgodę na ich dalsze wykorzystanie.
Im szybciej zrozumiesz, jak działa analiza danych zdrowotnych, tym łatwiej ustawisz granice – od świadomego udzielania zgód po zdecydowane cofnięcie ich wtedy, gdy uznasz, że algorytm wie o tobie za dużo.
Jakie dane zdrowotne zbierają systemy AI – szerzej niż się wydaje
Dane „medyczne” a dane, które w praktyce zdradzają stan zdrowia
RODO rozróżnia dane zwykłe i dane szczególnych kategorii – w tym dane dotyczące zdrowia. W teorii jest jasno: dane zdrowotne to informacje o stanie fizycznym lub psychicznym osoby, o jej chorobach, niepełnosprawności, wynikach badań, zabiegach czy przyjmowanych lekach. Do tej kategorii należy np. wynik badania krwi, diagnoza cukrzycy, opis wypisu ze szpitala czy recepta wystawiona w systemie e-zdrowia.
W praktyce, z perspektywy sztucznej inteligencji, granica jest dużo mniej oczywista. Są dane, które nie są oznaczone jako „medyczne” w systemie, ale pozwalają odgadnąć stan zdrowia z wysokim prawdopodobieństwem. Algorytmy nie potrzebują bezpośredniej diagnozy – wystarczą sygnały poboczne, z których potrafią wnioskować:
- historia zakupów: regularny zakup leków przeciwbólowych, środków na nadciśnienie, testów ciążowych;
- dane lokalizacyjne: częste wizyty w poradni onkologicznej lub klinice leczenia niepłodności;
- aktywność fizyczna: nagły spadek liczby kroków, brak nocnego snu, nieregularne godziny aktywności;
- zachowania online: wyszukiwanie objawów konkretnych chorób, długie czytanie artykułów o depresji, chorobach serca, ciąży czy bezpłodności.
Formalnie część z tych informacji może być traktowana jako „zwykłe dane”, ale po ich połączeniu z innymi źródłami AI jest w stanie z dużą precyzją przewidzieć twoje ryzyko zdrowotne. Z perspektywy prywatności efekt bywa podobny do ujawnienia diagnozy – tyle że bez udziału lekarza.
Źródła danych: od szpitala po smartwatch
Dane zdrowotne analizowane przez sztuczną inteligencję pochodzą z wielu miejsc naraz. Nie zawsze zdajesz sobie z tego sprawę, bo część przepływów dzieje się w tle – między systemami różnych dostawców, w oparciu o umowy i integracje techniczne.
Typowe źródła danych zdrowotnych i okołozdrowotnych wykorzystywanych przez AI:
- Systemy medyczne: elektroniczna dokumentacja medyczna (EDM), e-recepty, e-skierowania, wyniki badań obrazowych, karty wypisowe, notatki lekarzy.
- Portale pacjenta: krajowe (np. Internetowe Konto Pacjenta) i prywatne platformy medyczne, w których rejestrujesz wizyty, przeglądasz wyniki, komunikujesz się z lekarzem.
- Aplikacje mobilne: liczniki kroków, trackery snu, aplikacje do monitorowania cyklu menstruacyjnego, dzienniczki objawów, aplikacje na receptę.
- Urządzenia wearables: smartwatche, opaski fitness, ciśnieniomierze z Bluetooth, inteligentne wagi, glukometry przesyłające dane do aplikacji.
- Lojalnościowe programy aptek i sklepów: historia zakupów, częstotliwość korzystania z rabatów na konkretne grupy produktów (np. leki OTC, preparaty na wątrobę, suplementy dla kobiet w ciąży).
- Usługi online niezwiązane wprost ze zdrowiem: wyszukiwarki, fora, serwisy społecznościowe, w których aktywność może wskazywać na problemy zdrowotne lub psychiczne.
Systemy AI łączą dane z tych różnych źródeł. Kluczowa jest możliwość powiązania informacji z jedną osobą – poprzez identyfikatory (PESEL, numer telefonu, adres e-mail, identyfikator urządzenia) lub cechy, które razem tworzą unikalny „ślad”. Nawet jeśli pojedyncze źródło wydaje się nieszkodliwe, całość układa się w bardzo szczegółowy profil zdrowotny.
Dane jawne i dane wnioskowane – dwie twarze tego samego problemu
Dane jawne to wszystko, co podajesz wprost: wpisujesz w formularzu, mówisz lekarzowi, rejestrujesz w aplikacji. Jest tu jasny kontekst, widzisz pola, wiesz, o co jesteś pytany. Gdy aplikacja do monitorowania cyklu prosi o datę ostatniej miesiączki, trudno mieć wątpliwości, że mówisz o konkretnej funkcji zdrowotnej.
Znacznie subtelniejsze są dane wnioskowane. Sztuczna inteligencja analizuje zachowania, wzorce i korelacje, by na ich podstawie wyciągać wnioski, których nigdzie nie deklarowałeś wprost. Przykłady:
- nieregularne pory snu, wzrost tętna w nocy i ograniczona aktywność w ciągu dnia – algorytm może zasugerować zwiększone ryzyko bezsenności lub zaburzeń lękowych;
- częste zakupy leków przeciwbólowych i przeciwzapalnych połączone z wizytami u ortopedy – wniosek o przewlekłym schorzeniu stawów;
- regularne logowanie do portali z dietami cukrzycowymi, przeglądanie treści o insulinie – model może założyć, że masz cukrzycę lub jesteś w grupie wysokiego ryzyka.
Te dane wnioskowane nie zawsze są prawdziwe, ale z punktu widzenia algorytmu są wystarczająco „prawdopodobne”, by podjąć na ich podstawie decyzje: wyświetlić określoną reklamę, zaproponować konkretną ofertę finansową, przypisać cię do grupy ryzyka w systemie ubezpieczeniowym.
Jak wygląda „profil zdrowotny” w oczach algorytmu
Profil zdrowotny to zestaw cech przypisanych do jednej osoby, które pozwalają modelowi AI przewidywać zachowania, ryzyka i potrzeby. Nie jest to jeden dokument, ale raczej struktura danych, którą algorytm tworzy i aktualizuje w czasie.
Taki profil może zawierać m.in.:
- podstawowe dane demograficzne (wiek, płeć, kod pocztowy, czasem status społeczno-ekonomiczny wnioskowany pośrednio);
- historię diagnoz, zabiegów, wypisów, recept;
- parametry z urządzeń: średnią liczbę kroków, średni czas snu, tętno spoczynkowe, zmienność rytmu zatokowego (HRV);
- wskaźniki zachowań: regularność wizyt u lekarza, stosowania leków, wykonywania badań kontrolnych;
- wzorce cyfrowe: częstotliwość logowania do portalu pacjenta, korzystania z czatu z lekarzem, wypełniania ankiet zdrowotnych.
Na tej podstawie model AI tworzy segmenty: osoby niskiego ryzyka, wysokiego ryzyka, „kosztowne” dla systemu, wymagające częstych interwencji, podatne na określone interwencje profilaktyczne. Dla systemu jesteś więc mniej osobą z historią życia, a bardziej „zbiorem cech”, które pomagają optymalizować procesy – medyczne i biznesowe.
Wniosek z tej części jest prosty: nawet jeśli unikasz dzielenia się wynikami badań, algorytmy mogą odgadnąć sporo o twoim zdrowiu na podstawie mniej oczywistych danych. Świadome zarządzanie zgodami wymaga patrzenia na dane szerzej niż tylko na tradycyjną dokumentację medyczną.

Co dokładnie robi AI z Twoimi danymi zdrowotnymi – technicznie, ale po ludzku
Od surowych danych do ryzyka i „ocen pacjenta”
Surowe dane zdrowotne są chaotyczne: różne formaty wyników, skróty w opisach lekarzy, dane z urządzeń zapisane w sekundach, krokach czy milisekundach. Pierwszy krok to przetworzenie tego bałaganu do postaci, z którą sztuczna inteligencja potrafi pracować.
Najczęstsze etapy przetwarzania danych zdrowotnych przez AI:
- Zbieranie – zaciągnięcie danych z wielu systemów: EDM, aplikacji mobilnych, urządzeń, portali pacjenta.
- Czyszczenie – usuwanie błędów, duplikatów, ujednolicanie jednostek (mg/dl vs mmol/l), normalizacja nazw (różne sposoby zapisu tej samej choroby).
- Łączenie – dopasowanie danych do jednej osoby: wyników badań, wizyt, danych z watcha, historii zakupów.
- Ekstrakcja cech – przekucie surowych danych w „cechy” (features): średnie wartości, trendy, odchylenia od normy, liczba zdarzeń w określonym czasie.
Na tak przygotowanych danych modele mogą wykonywać konkretne zadania: przewidywać przebieg choroby, wskazywać podwyższone ryzyko, sugerować lekarzowi dalsze badania, segmentować pacjentów. Technicznie są to wektory liczb i etykiet, ale ich konsekwencje odczuwasz bardzo realnie – jako decyzje medyczne i finansowe.
Typowe zadania AI: klasyfikacja, predykcja, rekomendacje, wykrywanie anomalii
Sztuczna inteligencja w medycynie pełni kilka powtarzających się ról. Dobrze je zrozumieć, bo od tego zależy, jak bardzo ingeruje w twoją prywatność i jakie ma znaczenie wycofanie zgody.
- Klasyfikacja – algorytm podejmuje decyzję typu „tak/nie” lub przydziela do jednej z kilku kategorii. Przykład: analiza zdjęcia RTG pod kątem złamania, klasyfikacja wyniku EKG jako prawidłowy/nieprawidłowy, oznaczenie wyniku badania jako wymagającego pilnej konsultacji.
- Predykcja – model przewiduje, co się może wydarzyć: ryzyko hospitalizacji w ciągu najbliższych miesięcy, prawdopodobieństwo nawrotu choroby, szansa na skuteczność konkretnej terapii.
- Rekomendacje – AI podpowiada lekarzowi lub pacjentowi: sugeruje zmianę dawki leku, przypomina o badaniu kontrolnym, proponuje modyfikację stylu życia na podstawie analizy snu i ruchu.
- Wykrywanie anomalii – algorytm wyłapuje nietypowe wzorce: nagły spadek aktywności, niecodzienne wyniki glikemii, zachowanie wskazujące na zaostrzenie choroby przewlekłej.
Przykład z życia: urządzenie monitorujące pracę serca wysyła dane do aplikacji. AI analizuje rytm i wykrywa potencjalne migotanie przedsionków. Generuje alert, który trafia do systemu lekarza. Ten, korzystając z podpowiedzi algorytmu, zleca dodatkowe badania i wprowadza leczenie. Twoje dane stały się paliwem dla decyzji, która – jeśli system działa poprawnie – ratuje zdrowie.
Profilowanie i segmentacja pacjentów – jak algorytm „układa” ludzi w grupy
Profilowanie pacjentów przez AI oznacza automatyczne przetwarzanie danych, którego celem jest ocenianie wybranych aspektów osoby – w szczególności analizy lub prognozy sytuacji zdrowotnej, preferencji, zachowań. RODO wprost reguluje profilowanie, jeśli ma istotne konsekwencje dla osoby: wpływa na dostęp do świadczeń, ubezpieczeń, warunków finansowych.
W praktyce profilowanie wygląda tak, że model:
- zbiera cechy opisujące ciebie: choroby, sposób korzystania z usług, koszty leczenia, wyniki badań, aktywność;
- szuka podobieństw do innych pacjentów;
- przypisuje cię do segmentu: np. „pacjenci przewlekle chorzy, wymagający intensywnego monitorowania”, „osoby niskiego ryzyka”, „pacjenci z wysokim prawdopodobieństwem niestosowania się do zaleceń”.
Taka segmentacja pozwala optymalizować zasoby: więcej uwagi kieruje się do grup wysokiego ryzyka, buduje dedykowane programy wsparcia czy profilaktyki. Jednocześnie powstają „etykiety”, które – jeśli trafią poza system medyczny – mogą mieć wpływ na twoją sytuację w innych obszarach (ubezpieczenia, zatrudnienie, produkty finansowe).
Profilowanie bywa też wykorzystywane czysto biznesowo: do określenia, jak często kupujesz leki, jak bardzo jesteś „lojalnym” pacjentem, jakie kampanie marketingowe najskuteczniej na ciebie działają. Wtedy granica między ochroną zdrowia a monetyzacją staje się bardzo cienka.
Jak algorytmy „uczą się” na Twoich danych – jednorazowe badanie czy cegiełka w wielkiej bazie?
Pewnego dnia dostajesz powiadomienie: „Na podstawie Pani danych poprawiliśmy dokładność naszych modeli o 12%”. Nie robiłeś żadnego dodatkowego badania, niczego nowego nie instalowałeś – po prostu używałeś aplikacji tak jak zawsze. To klasyczny moment, gdy dane medyczne zaczynają żyć drugim życiem, już poza bezpośrednią usługą dla ciebie.
Większość systemów AI medycznej ma dwa równoległe tryby działania:
- tryb operacyjny – wykorzystywanie danych do bieżącej obsługi pacjenta (diagnoza, rekomendacje, alerty);
- tryb treningowy – gromadzenie i przetwarzanie danych w celu ulepszania modeli, tworzenia nowych algorytmów, testowania hipotez.
W trybie operacyjnym system „widzi” twoje dane jako konkretny przypadek: Anna Nowak, lat 42, konkretne wyniki. W trybie treningowym interesują go już nie nazwiska, tylko wzorce: setki tysięcy pacjentów w podobnym wieku, z podobnymi parametrami. Tam twoje dane są cegiełką – małą, ale realną – w modelu, który później będzie używany u innych osób.
Trening modeli odbywa się zwykle etapami:
- Anonimizacja lub pseudonimizacja – usunięcie oczywistych identyfikatorów (imię, nazwisko, PESEL) lub ich zastąpienie technicznymi identyfikatorami.
- Agregacja – łączenie danych wielu osób w większe zbiory, np. wszyscy pacjenci z cukrzycą typu 2 z ostatnich pięciu lat.
- Uczenie modelu – algorytm szuka wzorców: które cechy zapowiadają powikłania, które kombinacje leków są skuteczniejsze, jakie profile pacjentów gorzej reagują na terapię.
- Walidacja – sprawdzenie, czy model działa dobrze na innych danych niż te, na których się uczył (często to też prawdziwe dane pacjentów, tylko z innego okresu lub innego ośrodka).
Efekt: twoje dane pomagają tworzyć narzędzie, które może mieć realną wartość kliniczną. Jednocześnie są częścią zasobu o wysokiej wartości komercyjnej – bo dobry model diagnostyczny czy predykcyjny to produkt, który można sprzedać, licencjonować albo wykorzystać jako przewagę konkurencyjną.
Kluczowy problem: zgoda udzielona na leczenie i bieżącą analizę nie zawsze wprost obejmuje trening modeli komercyjnych. Jeśli nie czytasz klauzul, nawet nie wiesz, kiedy przekraczasz tę granicę.
Testowanie, walidacja, „sandboxy” – gdzie Twoje dane krążą poza gabinetem
Wyobraź sobie, że szpital wdraża nowy system AI do oceny ryzyka powikłań pooperacyjnych. Zanim zacznie działać „na żywo”, musi przejść testy. Do tego potrzebne są realne dane – najlepiej kompletne historie leczenia.
W praktyce dane zdrowotne trafiają do kilku technicznych środowisk:
- środowisko produkcyjne – tam, gdzie odbywa się realne leczenie i gdzie lekarze widzą twoją dokumentację;
- środowisko testowe – kopia danych (czasem zanonimizowana, czasem tylko pseudonimizowana), na której sprawdza się zachowanie systemu;
- środowiska badawcze i „piaskownice” (sandboxy) – wydzielone zasoby, w których zespoły analityczne i naukowcy testują nowe pomysły, modele, algorytmy.
Te dodatkowe warstwy są konieczne, jeśli system ma być bezpieczny i skuteczny. Problem zaczyna się wtedy, gdy granica między „testem dla dobra pacjentów” a „eksperymentem komercyjnym” rozmywa się w papierach. W dokumentach wewnętrznych to często jeden i ten sam „projekt rozwojowy”.
Jeżeli pytasz o możliwość wycofania zgody, musisz wiedzieć, że:
- nie wszystkie kopie twoich danych są łatwo „odłączalne” – w sandboxie możesz istnieć jako wiersz w wielkiej tabeli bez oczywistego powiązania z nazwiskiem;
- modele już wytrenowane na twoich danych nie „zapominają” konkretnych przypadków – ich parametry są wynikiem całego zbioru treningowego;
- w niektórych projektach badawczych (zwłaszcza naukowych) usunięcie danych po analizie bywa organizacyjnie, a czasem i prawnie utrudnione.
Mini-wniosek: realne wycofanie zgody jest najłatwiejsze, zanim dane wejdą w duże projekty analityczne. Im później reagujesz, tym bardziej twoje informacje są „rozsiane” po systemie.
Gdzie kończy się diagnostyka, a zaczyna biznes – kto naprawdę korzysta z tych analiz
Od lekarza rodzinnego do działu sprzedaży – wędrówka danych w tle
Pacjent loguje się do portalu medycznego, umawia wizytę, wypełnia ankietę o stylu życia. Kilka dni później dostaje maila z „indywidualną ofertą pakietu badań kontrolnych” oraz propozycją karty medycznej na preferencyjnych warunkach. Medycyna? Owszem. Biznes? Jak najbardziej.
Dane zdrowotne, przetworzone przez AI, są atrakcyjne dla wielu działów organizacji:
- działu medycznego – do planowania opieki, profilaktyki, ścieżek leczenia;
- działu zarządzania ryzykiem – do przewidywania kosztów leczenia, rezerw finansowych, struktury portfela pacjentów lub ubezpieczonych;
- marketingu – do tworzenia „profilowanych” kampanii, ofert pakietowych, programów lojalnościowych;
- sprzedaży B2B – do przygotowywania raportów dla pracodawców („zdrowie pracowników”), ubezpieczycieli, partnerów.
Na poziomie pojedynczego pacjenta te działania są często opakowane jako „lepsza personalizacja” i „dostosowanie usług”. Na poziomie całej organizacji chodzi o zwiększenie przychodów i optymalizację kosztów – i to właśnie tam twoje dane stają się zasobem ekonomicznym.
Jeśli w regulaminie widzisz sformułowania typu „usprawnianie naszych usług”, „cele analityczne” czy „rozwój produktów i usług partnerów”, możesz być pewien, że diagnostyka jest tylko jedną z warstw wykorzystania danych.
Ubezpieczyciele, pracodawcy, big tech – trzej najwięksi „czytelnicy” Twojego profilu zdrowotnego
Wyobraź sobie trzy osoby siedzące nad twoim zanonimizowanym profilem: aktuariusza z firmy ubezpieczeniowej, specjalistę HR podpisującego umowę na pakiet medyczny i analityka danych z globalnej platformy technologicznej. Każda z nich patrzy na te same wskaźniki, ale z innym celem.
1. Ubezpieczyciel
Dla firm ubezpieczeniowych dane zdrowotne to podstawa kalkulacji składki, warunków polisy, zakresu ochrony. AI pomaga im:
- szacować ryzyko zachorowania lub wystąpienia powikłań;
- oceniać opłacalność ubezpieczenia konkretnej grupy (wiek, zawód, historia zdrowotna);
- wykrywać nadużycia i nietypowe schematy rozliczeń świadczeń.
Bezpośredni dostęp do indywidualnych danych medycznych jest formalnie ograniczony, ale profilowane informacje (np. „wysokie ryzyko chorób sercowo-naczyniowych”) mogą docierać w formie zagregowanej lub pseudonimizowanej. Czasem wystarczy sama informacja o segmencie, do którego przypisał cię algorytm.
2. Pracodawca
Oficjalnie pracodawca nie wie, że masz nadciśnienie, migreny czy stan przedcukrzycowy. W praktyce, zamawiając raporty od operatora pakietu medycznego, może zobaczyć, że „w firmie rośnie liczba pracowników z chorobami przewlekłymi układu krążenia” lub że „grupa wiekowa 30–40 lat zgłasza wysoki poziom stresu i wypalenia”.
Te informacje mogą posłużyć:
- do wprowadzenia programów wellbeing (to pozytywny scenariusz);
- do zmiany struktury benefitów i kosztów (kto płaci za pakiet, jakie są limity);
- w skrajnych przypadkach – do pośredniego różnicowania atrakcyjności grup pracowników przy planowaniu restrukturyzacji.
Dane te najczęściej są zagregowane, ale im mniejsza firma i im bardziej szczegółowy raport, tym łatwiej „odgadnąć”, kogo dotyczą określone problemy zdrowotne.
3. Big tech
Duże platformy technologiczne – producenci systemów operacyjnych w telefonach, smartwatchy, usług chmurowych – są często niewidocznym ogniwem łańcucha. To one:
- hostują dane w chmurze i widzą metadane o przetwarzaniu;
- dostarczają narzędzia analityczne i modele AI, które uczy się na danych partnerów;
- mogą łączyć dane z wielu źródeł (np. aktywność z telefonu, zakupy online, używanie aplikacji zdrowotnych).
Nawet jeśli deklarują, że nie przetwarzają „wrażliwych danych zdrowotnych” bez dodatkowej zgody, często budują profile zachowań, które zdrowia bardzo blisko dotykają: godziny snu, poziom aktywności, lokalizacje (siłownia, apteka, poradnia).
Wniosek z tej części: krąg faktycznych odbiorców twojego profilu zdrowotnego jest znacznie szerszy niż lekarz i aplikacja na telefonie. Część powiązań jest widoczna w regulaminach, część wynika z relacji biznesowych w tle.
Sprzedaż i udostępnianie danych – jak AI podnosi ich wartość rynkową
Jeśli firma medyczna ma „tylko” surowe dane, jej możliwości komercjalizacji są ograniczone przepisami. Gdy jednak te dane przejdą przez maszynę analityczną i system AI, powstaje coś, co bywa określane jako „insighty zdrowotne” albo „produkty danych”.
Przykładowe formy komercyjnego wykorzystania analiz AI na danych zdrowotnych:
- raporty rynkowe – dla producentów leków, sprzętu, firm ubezpieczeniowych („wzrost zachorowań w danej grupie”, „dominujące schematy terapii”, „przestrzeganie zaleceń”);
- modele predykcyjne jako usługa – sprzedawane innym klinikom, ubezpieczycielom, platformom medycznym w modelu licencyjnym lub abonamentowym;
- segmentacja pacjentów – wykorzystywana do targetowania kampanii marketingowych produktów zdrowotnych, suplementów, prywatnych pakietów;
- testowanie skuteczności kampanii – analiza, jak określone grupy pacjentów reagują na przypomnienia, oferty, programy wsparcia.
Formalnie często nie sprzedaje się „danych pacjenta”, ale „wyniki analiz” lub „modele wytrenowane na danych”. Jednak z punktu widzenia prywatności skutek jest podobny: twoje zdrowie, zachowania i decyzje terapeutyczne kształtują produkt, który ktoś inny monetyzuje.
Scenariusz z życia: aplikacja monitorująca sen proponuje płatną wersję „dla firm”. Pracodawca kupuje licencję, a w pakiecie otrzymuje zagregowane analizy nastroju, zmęczenia i wypalenia w zespole. Ty w regulaminie wyraziłeś zgodę na „anonimowe analizy populacyjne”. Efekt końcowy – twoje noce wpływają na strategie HR, choć nigdy nie planowałeś dzielić się tym z szefem.
Granica etyczna i prawna – kiedy analiza przestaje być „opieka”, a staje się „profilowaniem komercyjnym”
Technicznie ten sam algorytm może służyć zupełnie różnym celom. Model, który przewiduje ryzyko hospitalizacji, może pomagać lekarzowi lepiej zadbać o pacjenta, ale też ubezpieczycielowi – obniżyć koszty, ograniczając dostęp do części świadczeń lub podnosząc składki.
Różnica leży w trzech elementach:
- cel przetwarzania – leczenie i profilaktyka vs. optymalizacja kosztów i sprzedaży;
- zakres udostępniania wyników – pozostają w systemie medycznym czy są wykorzystywane przez podmioty trzecie;
- kontrola użytkownika – czy masz realny wybór, czy analiza jest powiązana z główną usługą „na twardo” (bez niej nie dostaniesz świadczenia).
Z prawnego punktu widzenia kluczowe jest, czy twoja zgoda obejmuje:
- wyłącznie cel medyczny (diagnostyka, leczenie, zarządzanie opieką);
- również cele „analityczne i statystyczne” wewnątrz tego samego administratora danych (np. szpitala, przychodni);
- także cele marketingowe, komercyjne, współpracę z partnerami.
Im szerzej zdefiniowany cel, tym większe pole do biznesowego wykorzystania twojego profilu zdrowotnego. Jeśli regulamin mówi o „podmiotach współpracujących w zakresie świadczenia usług zdrowotnych i towarzyszących”, pod to pojęcie można podciągnąć bardzo różnych partnerów – od laboratoriów po firmy marketingowe specjalizujące się w sektorze medycznym.
Z punktu widzenia osoby, która chciałaby później wycofać zgodę, szczególnie problematyczne są:
- profilowanie krzyżowe – łączenie danych zdrowotnych z finansowymi, behawioralnymi, lokalizacyjnymi w jednym profilu;
- długoterminowe przechowywanie wyników analiz – nawet jeśli usuniesz dane źródłowe, „etykiety” ryzyka mogą pozostać w innych systemach;
Dlaczego wycofanie zgody nie cofa czasu – jak „ślady” zostają w systemach AI
Wyobraź sobie, że piszesz do operatora aplikacji: „proszę usunąć wszystkie moje dane i cofnąć zgodę”. Dostajesz potwierdzenie, logujesz się ponownie – historia wizyt i pomiary zniknęły. Ale gdy ktoś w firmie odpala model ryzyka chorób serca, ten wciąż „pamięta”, że ludzie o twoim profilu mieli takie, a nie inne wyniki.
Tu zaczyna się napięcie między prawnym prawem do bycia zapomnianym a techniczną naturą uczenia maszynowego. Model AI nie zapisuje twojego nazwiska, ale wzorzec, do którego się przyczyniłeś.
Gdy cofasz zgodę lub prosisz o usunięcie danych, zwykle dzieje się kilka rzeczy:
- dane wprost identyfikujące (imię, nazwisko, e-mail) są usuwane lub odłączane od reszty rekordu;
- dane operacyjne (historia pomiarów, wizyt, ankiet) są oznaczane do usunięcia lub zanonimizowania po określonym czasie;
- backupy i archiwa wchodzą w dłuższy proces „wygaszania” – tam dane mogą jeszcze fizycznie istnieć, ale zwykle są „zamrożone” do celów bezpieczeństwa lub rozliczeń;
- modele AI wytrenowane na twoich danych zazwyczaj nie są cofane – nikt nie cofa całego treningu tylko dlatego, że jedna osoba zmieniła zdanie.
Dla ciebie oznacza to, że:
- nowe analizy nie powinny już wykorzystywać twoich danych imiennych ani dopisywać kolejnych etykiet do twojego profilu;
- istniejące „insighty” i modele mogą dalej działać, choć bez możliwości powiązania ich z tobą jako konkretną osobą.
Jeśli więc liczysz, że cofnięcie zgody całkowicie „wymaże” wpływ twoich danych na system AI, technicznie to się nie wydarzy. Realistyczny cel jest inny: odciąć możliwość dalszego profilowania ciebie jako jednostki.
Jak realnie cofnąć zgodę w aplikacjach zdrowotnych i systemach medycznych
Scenariusz z życia: po kilku miesiącach używania inteligentnej wagi i aplikacji fitness dostajesz mailing z „rekomendacjami suplementów” idealnie trafiającymi w twoje wyniki. Coś cię tknęło, więc chcesz zatrzymać ten przepływ.
Krok po kroku wygląda to dużo mniej spektakularnie, niż rozbudowane slogany o „pełnej kontroli nad danymi” w materiałach marketingowych.
Najczęstsze ścieżki cofania zgody w praktyce:
- Ustawienia w aplikacji – sekcje typu „Prywatność”, „Zgody”, „Personalizacja”. Możesz tam:
- odkliknąć zgodę na marketing, profilowanie, udostępnianie partnerom;
- ograniczyć kategorie danych (np. lokalizacja, dane z innych urządzeń);
- włączyć tryb „tylko niezbędne przetwarzanie”, jeśli aplikacja go przewiduje.
- Panel pacjenta / system medyczny – platformy przychodni, laboratoriów czy telemedycyny zwykle mają zakładkę „Zgody RODO”, „Oświadczenia pacjenta”. Tam możesz:
- wycofać zgodę na cele marketingowe i statystyczne niezwiązane bezpośrednio z leczeniem;
- sprecyzować, że zgoda dotyczy tylko opieki medycznej w danym podmiocie.
- Kontakt mailowy lub formularz – gdy panel nie przewiduje szczegółowego zarządzania zgodami, przepisy dają ci prawo do:
- złożenia sprzeciwu wobec przetwarzania danych w określonych celach;
- zażądania ograniczenia przetwarzania – np. tylko do realizacji świadczeń zdrowotnych;
- zażądania usunięcia konta i danych nieobjętych obowiązkiem prawnym przechowywania (np. dokumentacja medyczna ma osobne zasady).
W korespondencji z administratorem danych pomaga, jeśli jasno oddzielisz:
- zgodę na leczenie i prowadzenie dokumentacji medycznej (tej cofnięcie zwykle nie unieważnia już wykonanych świadczeń ani obowiązku przechowywania dokumentacji);
- zgody na cele dodatkowe: marketing, profilowanie, udostępnianie partnerom, analizy statystyczne wykraczające poza to, co wymaga prawo.
Im bardziej precyzyjnie opiszesz, czego dotyczy cofnięcie zgody („nie wyrażam zgody na profilowanie moich danych zdrowotnych w celach marketingowych oraz udostępnianie wyników analiz partnerom komercyjnym”), tym trudniej będzie firmie „rozlać” to na inne kategorie po swojemu.
Różnica między usunięciem konta a cofnięciem zgody na przetwarzanie
Częsta pułapka: klikasz „Usuń konto” i zakładasz, że cała reszta dzieje się automatycznie. Tymczasem w tle mogą działać trzy zupełnie różne mechanizmy.
Najprościej rozumieć je tak:
- Usunięcie konta – operacja na warstwie usługi:
- nie masz już dostępu do aplikacji, historii, funkcji premium;
- dane mogą zostać oznaczone jako „nieaktywne”, ale wciąż istnieć w bazach lub archiwach.
- Cofnięcie zgody – operacja na warstwie prawnej:
- administrator traci podstawę do dalszego przetwarzania twoich danych w danym celu;
- musi dostosować procesy (np. wyłączyć profilowanie, wyciąć cię z list marketingowych, zatrzymać przekazywanie danych partnerom).
- Żądanie usunięcia danych – operacja na warstwie danych:
- firma powinna usunąć lub zanonimizować dane, które nie są niezbędne z innych powodów (np. obowiązek przechowywania dokumentacji medycznej przez określoną liczbę lat);
- czasem wiąże się to z częściową utratą historii przydatnej medycznie – i tu lekarz lub podmiot medyczny może odmówić, powołując się na przepisy.
W aplikacjach typowo „konsumenckich” (fitness, wellbeing, monitorowanie snu) usunięcie konta i usunięcie danych często idą razem. W systemach stricte medycznych – niekoniecznie. Tam dokumentacja pacjenta podlega odrębnemu reżimowi, a AI zwykle korzysta z tych danych „przy okazji”.
Przy decyzji, co chcesz osiągnąć, przydaje się prosty zestaw pytań do siebie:
- czy zależy mi na dalszym korzystaniu z usługi medycznej, ale bez profilowania komercyjnego?
- czy chcę, aby moje dane zupełnie zniknęły z danej platformy, nawet kosztem utraty historii?
- czy moim głównym problemem jest marketing i przekazywanie danych dalej, a nie sama analiza pod kątem leczenia?
Kiedy nie możesz w pełni wycofać zgody – obowiązki prawne kontra twoje oczekiwania
Czasem klient jest szczerze zaskoczony odpowiedzią: „nie możemy usunąć pana danych, ponieważ…”. To nie zawsze wymówka – w medycynie część przetwarzania nie opiera się na twojej zgodzie, lecz na przepisach prawa.
Przykładowe obszary, w których cofnięcie zgody ma ograniczony zasięg:
- dokumentacja medyczna – szpital, przychodnia czy laboratorium ma ustawowy obowiązek przechowywania jej przez konkretny czas; nie może jej po prostu skasować, nawet jeśli tego żądasz;
- rozliczenia z NFZ lub ubezpieczycielem – dane potrzebne do udokumentowania świadczeń, refundacji, kontroli; tu podstawą jest prawo lub umowa, a nie twoja zgoda;
- bezpieczeństwo systemów – logi bezpieczeństwa, zapisy dostępu do systemów, ślady incydentów; często są pseudonimizowane, ale przechowywane dłużej;
- obowiązki sprawozdawcze – raportowanie statystyk zdrowotnych do instytucji publicznych w formie zbiorczej.
To, co wciąż pozostaje w twoich rękach, to cele dodatkowe – analityka komercyjna, marketing, współpraca z partnerami. Cofając zgodę, możesz „przyciąć” właśnie te gałęzie, nawet jeśli pień (dokumentacja medyczna) musi pozostać nienaruszony.
Jeśli dostajesz ogólną odpowiedź odmowną, warto poprosić o doprecyzowanie, które kategorie danych i na jakiej podstawie są wciąż przetwarzane. Zmusza to administratora do oddzielenia „tego, co musi” od „tego, co mu się opłaca”.
Jak rozpoznać, że AI profiluje cię „ponad miarę” – sygnały ostrzegawcze
Nie każdy użytkownik ma czas czytać regulaminy jak prawnicy. Czasem wystarczy wsłuchać się w kilka prostych symptomów, że twoje zdrowie zaczęło żyć własnym życiem w systemach AI.
Charakterystyczne sygnały, że profilowanie poszło dalej, niż zakładałeś:
- zbyt „trafne” reklamy i oferty – pojawiają się po konkretnych badaniach, diagnozach czy wpisach w aplikacji (np. reklama leków na nadciśnienie zaraz po dodaniu parametrów ciśnienia);
- komunikaty dopasowane do twoich słabości – np. aplikacja nie tylko przypomina o ćwiczeniach, ale sugeruje płatne konsultacje po kilku dniach słabszej aktywności;
- zmiana tonu komunikacji – po pojawieniu się nowych dolegliwości dostajesz inny rodzaj ofert: mniej „lifestyle”, więcej „opieka długoterminowa”, „pakiety chronic care”;
- niespodziewany kontakt partnerów – telefon z firmy ubezpieczeniowej z „wyjątkową ofertą dla osób aktywnych” niedługo po rozpoczęciu używania opaski fitness powiązanej z inną usługą;
- brak jasnego wyjaśnienia – na pytanie „skąd macie te informacje” słyszysz ogólniki o „anonimowych analizach populacyjnych”, bez konkretów.
Tego typu symptomy nie zawsze oznaczają złamanie prawa. Czasem są po prostu efektem bardzo szerokich zgód, które kliknąłeś bez zastanowienia. Ale to właśnie moment, w którym warto zrobić przegląd ustawień prywatności i zdecydować, czy dotychczasowa równowaga między wygodą a prywatnością wciąż ci odpowiada.
Minimalizowanie śladu zdrowotnego w AI – praktyczne „bezpieczniki” po twojej stronie
Nie chodzi o to, żeby z dnia na dzień wyrzucić smartwatcha i skasować wszystkie aplikacje. Chodzi raczej o świadome ustawienie sufitu: co chcesz dać AI o swoim zdrowiu, a czego nie.
Sprawdzone sposoby na ograniczenie zbędnego profilowania:
- Rozdziel narzędzia „medyczne” od „lifestylowych” – wyniki badań, diagnozy, opisy objawów trzymaj w systemach związanych z opieką medyczną; w aplikacjach fitness nie podawaj szczegółowych rozpoznań ani nazw leków.
- Wyłącz logowanie przez big tech, jeśli to możliwe – korzystanie z konta dużej platformy (np. globalnego konta do telefonu) jako „klucza” do aplikacji zdrowotnych ułatwia łączenie profili.
- Ogranicz integracje – każda zgoda typu „udostępniaj dane z aplikacji X do aplikacji Y” to dodatkowy kanał przepływu; zostaw tylko te, które realnie coś ci dają.
- Kontroluj lokalizację – jeśli aplikacja nie potrzebuje stałego śledzenia GPS do działania, ustaw „tylko podczas używania” lub wyłącz ją całkowicie.
- Ustaw „twarde” granice w pytaniach – gdy aplikacja zaczyna dopytywać o sfery, które są dla ciebie zbyt intymne albo niepotrzebne do głównej funkcji (np. szczegółowe informacje o zdrowiu psychicznym w prostej aplikacji kroków), możesz po prostu nie odpowiadać.
Dla wielu osób sensownym kompromisem jest podejście: dane szczególnie wrażliwe (diagnozy, psychiatria, choroby przewlekłe) – tylko w systemach medycznych; dane ogólne (kroki, sen, puls) – w aplikacjach komercyjnych, ale z mocno ograniczonymi zgodami na marketing i udostępnianie.
Co się dzieje z twoimi danymi zdrowotnymi po zamknięciu aplikacji lub zmianie dostawcy
Wyobraź sobie, że twoja ulubiona aplikacja do monitorowania cyklu zostaje wykupiona przez większego gracza. Interfejs wygląda podobnie, ale polityka prywatności zmienia się nie do poznania. Klikasz „nie akceptuję” i szukasz alternatywy. Co dzieje się z historią kilku lat?
Scenariusze są zwykle trzy:
- Przeniesienie danych do nowego właściciela – dane, które zebrał stary podmiot, mogą stać się częścią majątku firmy; nowy właściciel przejmuje je wraz z obowiązkami prawnymi i regulaminami.
- Archiwizacja i wygaszanie – w momencie, gdy kończy się wsparcie aplikacji, dane są przenoszone do archiwum i po określonym czasie usuwane lub anonimizowane; w praktyce rzadko ktoś sam z siebie to przyspiesza.
- Migracja do innego produktu tego samego dostawcy – twoje dane „przeprowadzają się” do nowej aplikacji lub platformy, często domyślnie, chyba że wyraźnie się sprzeciwisz.

Kluczowe Wnioski
- Systemy AI potrafią z prostych aplikacji – jak licznik kroków czy tracker snu – wyciągnąć wnioski o stanie zdrowia i szybko przełożyć je na „szyte na miarę” komunikaty: od sugestii zmiany nawyków po oferty ubezpieczeń pod twoje domniemane ryzyko.
- Dane zdrowotne to nie tylko diagnozy i wyniki badań; za wskaźniki stanu zdrowia uznawane są też wzorce snu, poziom aktywności, lokalizacja (np. częste wizyty w konkretnej klinice), zakupy w aptece czy nocne wyszukiwania objawów w internecie.
- Choć RODO formalnie odróżnia „zwykłe dane” od danych o zdrowiu, w praktyce po ich połączeniu przez algorytmy efekt bywa taki sam, jak ujawnienie diagnozy – tylko że bez wiedzy lekarza i często bez pełnej świadomości użytkownika.
- Dane o zdrowiu rozproszone są w wielu miejscach: od szpitalnych systemów i portali pacjenta, przez aplikacje mobilne i urządzenia wearables, po programy lojalnościowe i usługi online, które z medycyną nie kojarzą się wprost.
- Kluczowym elementem jest łączenie strzępów informacji pod jednym identyfikatorem (PESEL, numer telefonu, e-mail, ID urządzenia), co pozwala AI zbudować bardzo szczegółowy profil zdrowotny z pozornie nieszkodliwych sygnałów.
- Obok danych jawnych, które podajesz świadomie (np. w formularzu medycznym), powstają dane wnioskowane – algorytm sam dopowiada sobie twoje ryzyka i możliwe choroby na podstawie zachowań, godzin aktywności czy nietypowych wzorców snu.
Źródła
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO). Dziennik Urzędowy Unii Europejskiej (2016) – Definicje danych zdrowotnych, zgoda, szczególne kategorie danych
- Wytyczne dotyczące przetwarzania danych dotyczących zdrowia w usługach e-zdrowia. Europejska Rada Ochrony Danych (2021) – Interpretacja RODO dla danych zdrowotnych i aplikacji e‑zdrowia
- Opinia 8/2014 w sprawie ostatnich zmian w sektorze zdrowia. Grupa Robocza Art. 29 ds. Ochrony Danych (2014) – Analiza ryzyk prywatności w systemach ochrony zdrowia
- Zasady przetwarzania danych osobowych w systemie e‑Zdrowie. Ministerstwo Zdrowia – Krajowe zasady ochrony danych w EDM, e‑receptach, IKP
- Raport roczny Prezesa UODO – Ochrona danych w sektorze medycznym. Urząd Ochrony Danych Osobowych – Przykłady naruszeń i zaleceń dla podmiotów medycznych
- OECD Recommendation on Health Data Governance. Organisation for Economic Co-operation and Development (2017) – Zasady zarządzania danymi zdrowotnymi, wtórne wykorzystanie danych
- Big data, artificial intelligence and data protection. European Data Protection Supervisor (2020) – Skutki AI i big data dla prywatności, w tym w zdrowiu
- Ethics and governance of artificial intelligence for health. World Health Organization (2021) – Wytyczne etyczne dla AI w zdrowiu, w tym prywatność i zgoda
- Recommendation CM/Rec(2019)2 on the protection of health-related data. Rada Europy (2019) – Standardy ochrony danych zdrowotnych, profilowanie, wtórne użycie




