English Polski
Tom 19 (2024): Continuous Publishing
Artykuł przeglądowy
Opublikowany online: 2024-05-17
Wyświetlenia strony 230
Wyświetlenia/pobrania artykułu 81
Pobierz cytowanie

Eksport do Mediów Społecznościowych

Eksport do Mediów Społecznościowych

Jak sprawić by sztuczna inteligencja stała się etycznym narzędziem diagnostycznym w praktyce lekarskiej?

Anna Maria Wojtkiewicz1, Magda Marta Piekarska1, Artur Mamcarz2, Daniel Śliż2
Folia Cardiologica 2024;19:116-120.

Streszczenie

Zastosowanie rozwiązań ze sfery sztucznej inteligencji może przyczynić się do poprawy jakości świadczeń w sektorze ochrony zdrowia. Algorytmy AI pozwalają na szybsze przetwarzanie i analizowanie danych, a co za tym idzie sprawniejszy proces diagnozowania pacjentów. Z drugiej strony rozwiązania AI nadal nie są pozbawione błędów. Ich algorytmy obarczone są uprzedzeniami, które mogą wykluczać grupy mniej uprzywilejowane w społeczeństwie. Uprzedzenia w uczeniu maszynowym, zwane także uprzedzeniami algorytmów lub uprzedzeniami AI (AI bias), to zjawisko występujące wtedy, gdy algorytm generuje wyniki, które są systematycznie uprzedzone ze względu na błędne założenia już w procesie uczenia maszynowego. Jest to sytuacja, w której prawidłowy algorytm wyklucza pewne dane lub grupę danych. Celem niniejszego artykułu jest zarysowanie problematyki etycznego zastosowania sztucznej inteligencji w sektorze medycznym ze szczególnym uwzględnieniem uprzedzeń sztucznej inteligencji. W medycynie jest to o tyle istotny problem, iż przekłada się on na jakość opieki nad pacjentami oraz tego w jaki sposób rozkładać się będą ich szanse na powrót do zdrowia. W poniższym artykule poruszone zostały zagadnienia prawne oraz sposoby klasyfikacji sztucznej inteligencji przez Unię Europejską, kwestie uprzedzenia sztucznej inteligencji oraz wiążących się z tym zagrożeń wraz z dotychczasowymi przykładami prób wdrażania sztucznej inteligencji w sektorze medycznym oraz perspektywy dla zastosowania sztucznej inteligencji w sektorze medycznym ze szczególnym naciskiem na kardiologię. Naszym wnioskiem jest, iż prace nad sztuczną inteligencją powinny być kontynuowane, a algorytmy udoskonalane. Pomimo swoich wad, jest to nadal niezwykle pomocne narzędzie diagnostyczne, które powinno być powszechnie wprowadzane do codziennej praktyki lekarzy. Niniejsza praca napisana została z zastosowaniem metody analizy i krytyki piśmiennictwa, aktów prawa krajowego i Unii Europejskiej oraz przeglądu dotychczasowych badań dotyczących zastosowania sztucznej inteligencji w medycynie.

Artykuł dostępny w formacie PDF

Dodaj do koszyka: 49,00 PLN

Posiadasz dostęp do tego artykułu?

Referencje

  1. Proposal for a Regulation laying down harmonised rules on artificial intelligence. https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence (15.11.2023).
  2. Bias in AI: What it is, Types, Examples & 6 Ways to Fix it in 2023. https://research.aimultiple.com/ai-bias/ (15.11.2023).
  3. Caruana R, Lou Y, Gehrke J, et.al. Intelligible Models for HealthCare: Predicting Pneumonia Risk and Hospital 30-day Readmission. IN: Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, s. 1721-1730. https://dl.acm.org/doi/10.1145/2783258.2788613 (21.11.2023).
  4. Smith R. The Key Differences Between Rule-Based AI And Machine Learning. https://becominghuman.ai/the-key-differences-between-rule-based-ai-and-machine-learning-8792e545e6 (21.11.2023).
  5. Juhn YJ, Ryu E, Wi CI, et al. Assessing socioeconomic bias in machine learning algorithms in health care: a case study of the HOUSES index. J Am Med Inform Assoc. 2022; 29(7): 1142–1151.
  6. Seyyed-Kalantari L, Zhang H, McDermott MBA, et al. Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations. Nat Med. 2021; 27(12): 2176–2182.
  7. Sjoding MW, Dickson RP, Iwashyna TJ, et al. Racial bias in pulse oximetry measurement. N Engl J Med. 2020; 383(25): 2477–2478.
  8. Hague DC. Benefits, pitfalls, and potential bias in health care AI. N C Med J. 2019; 80(4): 219–223.
  9. Guo Y, Wang H, Zhang H, et al. MAFA II Investigators. Mobile photoplethysmographic technology to detect atrial fibrillation. J Am Coll Cardiol. 2019; 74(19): 2365–2375.
  10. Hughes JW, Yuan N, He B, et al. Deep learning evaluation of biomarkers from echocardiogram videos. EBioMedicine. 2021; 73.
  11. Koulaouzidis G, Jadczyk T, Iakovidis DK, et al. Artificial intelligence in cardiology-a narrative review of current status. J Clin Med. 2022; 11(13).
  12. Moghaddasi H, Nourian S. Automatic assessment of mitral regurgitation severity based on extensive textural features on 2D echocardiography videos. Comput Biol Med. 2016; 73: 47–55.