Czy sztuczna inteligencja przestrzega praw pacjenta

Bartosz Woźniak

Sztuczna inteligencja prawa pacjenta

Gdzie jest sztuczna inteligencja?

Z prowadzonych badań statystycznych wynika, że do czołówki najszybciej rozwijających się sektorów gospodarki należy sektor ochrony zdrowia oraz szeroko rozumiany sektor IT. Jest to szczególnie istotne, gdyż sektor IT napędza ochronę zdrowia tworząc i implementując nowe rozwiązania technologiczne usprawniające, przyspieszające czy wynoszące medycynę na zupełnie nowy poziom. Wyjątkowo istotnym elementem jest rozwój sztucznej inteligencji (SI/AI).

Nie ma jednej definicji (a na pewno nie ma definicji legalnej) sztucznej inteligencji. Można wyróżnić kilka rodzajów technologii, które uznajemy za SI lub są z nią związane:

  • uczenie maszynowe (z ang. machine learning, ML) – jest to oprogramowanie komputerowe, które zbiera wiedzę z różnych źródeł, a następnie „wyciąga własne wnioski” na dany temat;
  • uczenie głębokie (z ang. deep learning, DL) – jest to technologia wykorzystująca matematczne odwzorowanie układu nerwowego człowieka, czyli sieci neuronowych;
  • przetwarzanie języka naturalnego (z ang. natural language processing, NLP) – ta technologia za cel stawia sobie rozumienie języka ludzkiego (mówionego i pisanego).

Czy sztuczna inteligencja leczy ludzi?

Skoro już wiemy czym SI jest oraz że jest wykorzystywana w ochronie zdrowia, to pora zadać sobie pytanie – czy AI leczy ludzi?

Odpowiedź na to pytanie nie jest jednoznaczna, jedyne co na pewno można w tym temacie powiedzieć to – AI wspiera personel medyczny w leczeniu pacjentów. W Polskim systemie ochrony zdrowia mamy już bardzo wiele przypadków stosowania sztucznej inteligencji, jest to m.in.:

  • Opaska Telemedyczna wykorzystywana m.in. w trakcie pandemii;
  • systemy monitorowania glikemii u cukrzyków;
  • elektroniczne stetoskopy;
  • analiza zmian na zdjęciach RTG.

Jednym z ciekawszych przypadków jest pomysł polskiego startup’u, który tworzy kapsułkę umożliwiającą wykrywanie chorób układu pokarmowego. Innymi słowy jest to kapsułka, która po połknięciu wykonuje serie kilkudziesięciu tysięcy zdjęć, które następnie są analizowane z wykorzystaniem ML pod kątem odchyleń i chorób układu pokarmowego.

SI w ochronie zdrowia jest stosowana nie tylko w procesie leczenia, ale także wspiera (a czasem nawet całkowicie zastępuje) działy administracyjne podmiotów leczniczych. Przykładowo jest to np. wykorzystywanie Voicebot’ów, które odciążają pracowników rejestracji przy odbieraniu telefonów lub przypominaniu pacjentom o wizytach.

Czy sztuczna inteligencja przestrzega praw pacjenta?

Polskie regulacje nie zakazują wykorzystywania sztucznej inteligencji w leczeniu. Niemniej jednak, bez względu na to, na którym etapie procesu leczenia wykorzystywana jest SI, to podmiot wykonujący działalność leczniczą musi przestrzegać praw pacjenta. SI nie może ponosić odpowiedzialności, gdyż (jeszcze) nie ma podmiotowości prawnej. Dlatego za jej „czyny” związane z nieprzestrzeganiem praw pacjenta odpowiadać będzie ten, kto ją wykorzystuje.

Światowa Organizacja Zdrowia (WHO) zebrała najważniejsze zasady, których powinien przestrzegać twórca oprogramowania, a także każdy kto z niego korzysta. Zasady te pozwalają szanować prawa pacjenta nawet przez sztuczną inteligencję:

  • autonomia decyzji – ostateczna decyzja medyczna zawsze powinna należeć do członka personelu medycznego;
  • wymogi regulacyjne – oprogramowanie medyczne powinno być dostosowane do przepisów prawa, w szczególności w zakresie prywatności i tajemnicy zawodowej;
  • przejrzystość i zrozumiałość – oprogramowanie medyczne powinno być uprzednio udokumentowane w taki sposób, aby ułatwić konstruktywne konsultacje społeczne na jego temat;
  • odpowiedzialność i rozliczalność – oprogramowanie medyczne powinno być wykorzystywane tylko przez przeszkolone osoby, a także powinny istnieć jasne reguły ustalające kto i w jakim zakresie jest odpowiedzialny za stosowaną technologię;
  • inkluzywność i równość – oprogramowanie medyczne nie powinno stosować dyskryminacji ze względu na pochodzenie etniczne, wiek, orientację seksualną, płeć i inne cechy chronione przez prawa człowieka;
  • responsywność – oprogramowanie medyczne powinno być na bieżąco weryfikowane i aktualizowane, aby minimalizować konsekwencje zarówno dla pacjentów, jak i w odniesieniu do utraty miejsc pracy na rzecz programów komputerowych.

Biorąc pod uwagę wszystkie te zasady, a także zasady odpowiedzialności wynikające m.in. z ustawy o prawach pacjenta i Rzeczniku Praw Pacjenta podmiot wykonujący działalność leczniczą, który korzysta ze sztucznej inteligencji ponosi odpowiedzialność za przestrzeganie praw pacjenta.

W ramach podsumowania, jeśli zainteresował Państwa ten temat, to tutaj znajdą Państwo Białą Księgę AI w praktyce klinicznej przygotowaną m.in. przez Koalicję AI w Zdrowiu oraz Polską Federację Szpitali. Jest to 100 stronnicowy materiał zawierający odpowiedzi na niektóre pytania dotyczące wykorzystywania SI w ochronie zdrowia.

Skontaktuj się z nami!

Administrator przywiązuje szczególną wagę do poszanowania prywatności osób fizycznych korzystających ze świadczonych przez niego usług, dlatego wprowadził niniejszą Politykę zawierającą informacje o przetwarzaniu przez niego danych osobowych.

Podstawą prawną Polityki jest RODO – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych).