FAQ

Zdrowie Publiczne i Zarządzanie

Zagadnienie stosowania samouczących się programów o charakterze sztucznych inteligencji w ochronie zdrowia

Data publikacji: 19.09.2023

Tom 15, Numer 4

Zdrowie Publiczne i Zarządzanie, 2017, s. 306 - 316

https://doi.org/10.4467/20842627OZ.17.033.8287

Autorzy

Krzysztof Kaźmierczak

Abstrakt

An approach for using self-teaching algorithms of artificial intelligences character in health care
Recent developments in information technologies allow an increasing delegation of certain tasks within the area of medicine to self-teaching algorithms, commonly referred to as artificial intelligences. Such programs may advise and provide solutions in various aspects of personalized medical services to be used by practitioners. Large scale usage of data and creation of complicated pathways for decision making may result in opacity and creation of “black boxes” which cannot be effectively supervised by users. This paper aims to position certain aspects of such algorithms within the prescriptive map of ethical debate on algorithms, their accountability and to briefly describe the existing legal solutions which may aid in dealing with such issues. 

Bibliografia

1. Obama B., Sixth Presidential State of the Union Address, Washington 2015, http://www.americanrhetoric.com/speeches/stateoftheunion2015.htm (dostęp: 20.01.2015).

2. Warfarindosing, http://www.warfarindosing.com (dostęp: 1.12.2017).

3. FDA (Food and Drug Administration), Collection, Analysis and Avaliability of Demographic Subgroup Data for FDA Approved Medical ProductsMaryland 2013, https://www.fda.gov/downloads/RegulatoryInformation/LawsEnforcedbyFDA/SignificantAmendmentstotheFDCAct/FDASIA/UCM365544.pdf (dostęp: 6.01.2018).

4. Nicholson W., Price II, Black box medicine, „Harvard Journal of Law & Technology” 2015; 28 (2): 419467.

5. Brynjolfsson E., McAffee A., Drugi wiek maszyn, (ang. The second machine age), tłum. B. Sałbut, MT Biznes, Warszawa 2013.

6. Chandrasekaran B., Mittel S., Conceptual representation of medical diagnosis for computers. MDX and related systems, w: Advances in Computers, New York Place: 217–293.

7. Jensen P.B, Mining electronic health records: Towards better research applications and clinical health, „Nature Review Genetics” 2012; 13: 395405.

8. Burke W., Bruce M.O.P., Personalized medicine in era of Genomics, „Journal of American Medical Association” 2007; 14: 16821684.

9. Etzioni A., Etzioni O., Keeping AI legal, Vanderbilt, „Journal of Entertainment & Technology Law” 2016; 133: 134–135.

10. Norma ISO/IEC 2382–1: 1993 Information Technology – Vocabulary, Geneva 1993.

11. Hastie T., Tibshirani R., Friedman J., The Elements of Statistical Learning. Data MiningInterference and Prediction, Springer, New York 2008.

12. Frankish K., Ramsey W.M., The Cambridge Handbook of Artificial Intelligence, Cambridge University Press, United Kingdom 2014.

13. Bostrom N., The ethics of artificial intelligence, w: Cambridge Handbook of Artificial Intelligence, Cambridge University Press, United Kingdom 2011.

14. Hastie T., Tibshirani R., Friedman J., The Elements of Statistical Learning, Springer, Chicago 2009.

15. Nielsen M.A., Neural Networks and Deep Learning, http://neuralnetworksanddeeplearning.com/chap1.html (dostęp: 4.01.2018).

16. Mayer-Schonberger V., Cukier K., Big Data. Revolution That Will Transform How We Live, Work and Think, John Murray Publishers, Chicago 2013

17. Hardesty L., New Algorithm Lets Autonomous Robots Divvy up Assembly Tasks on the Fly, Mass. Inst. of Tech., http://www.sciencedaily.com/releases/2015/05/150527142100.html (dostęp: 5.01.2018).

18. Domingos P., Gens R., Deep Symmetry Networks, Department of Computer Science and Engineering, Washington 2014, https://homes.cs.washington.edu/~pedrod/papers/nips14.pdf (dostęp: 4.01.2018).

19. Ustawa dnia 6 listopada 2008 roku prawach pacjenta Rzeczniku Praw Pacjenta (Dz. U. 2017 roku, poz. 1318 ze zm.).

20. Ustawa dnia 5 grudnia 1996 roku zawodach lekarza lekarza dentysty (Dz. U. 1996 roku, poz. 1318 ze zm.).

21. Karkowska D., Ustawa prawach pacjenta Rzeczniku Praw Pacjenta. Komentarz. Wyd. Wolters Kluwer, Warszawa 2016.

22. Wyrok SN dnia 25 marca 1954 roku, sygn. akt II K 174/54.

23. Wyrok SN dnia 10 lutego 2010 roku, sygn. akt V CSK 287/09, Wyrok SA Białymstoku dnia 15 maja 2015 roku, sygn. akt ACa 1077/14.

24. Wyrok SA we Wrocławiu dnia 24 stycznia 2014 roku.

25. Ustawa dnia 10 maja 2010 roku wyrobach medycznych (uwm) (Dz. U. 2014 r. poz. 1138, 1162 ze zm.).

26. Rozporządzenie Ministra Zdrowia dnia 17 lutego 2016 roku sprawie wymagań zasadniczych oraz procedur oceny zgodności wyrobów medycznych (Dz. U. 2016 r. poz. 211 ze zm.).

27. Mittelstadt B.D., Allo P., Taddeo M., Wachter S., Floridi L., The ethics of algorithms. Mapping the Debate, „Sage Journals” 2016; 2: 121.

28. Annany M., Towards the Ethics of Algorithms Convening, Observation, Probability, and Timeliness, „Science, Technology and Human Values” 2016; 41 (1): 93–117.

29. Datta A., Sen S., Zick Y., Algorythmic transparency via quantitative input influence, Proceedings of 37th IEEE symposium on security and privacy, San Jose, USA, http://www.ieeesecurity.org/TC/SP2016/papers/0824a598.pdf (dostęp: 4.01.2018).

30. Matthias A., The responsibility gap: Ascribing responsibility for the actions of learning automata, „Ethics and Information Technology” 2004; 6 (3): 182–183.

31. Art. 6 , art. 20, art. 23 uwm.

32. Bozdag E., Bias in algorithmic filtering and personalization, „Ethics and Information Technology” 2015; 15 (3): 209–227.

33. Diakopoulos N., Accountability in Algorithmic Decision Making, „Digital Journalism” 2015; 59 (2): 5662.

34. Hajian S., Domingo-Ferrer J., Methodology for Direct and Indirect Discrimination Prevention in Data Mining, „IEEE Transactions on Knowledge and Data Engineering” 2013; 25 (7): 1445–1459.

35. Hildebrandt M., Koops B.J., The challenges of ambient law and legal protection in the profiling era, „Modern Law Review” 2010; 3 (73): 428–460.

36. Newell S., Marabelli M., Strategic opportunities (and challenges) of algorithmic decision-making: call for action on the long-term societal effects of ‘datification’, „Journal of Strategic Information Systems” 2015; 24 (1): 3–14.

37. Crawford K., Grey M.L., Miltner K., Critiquing big data: politics, ethics, epistemology special section introduction, „International Journal of Communication” 2014; 8: 1663–1672.

38. Geller J.S. L.N., Barash C.I., Billings P.R., Laden V., Natowicz M.R., Genetic discrimination and screening for hemochromatosis, „Journal of Public Health Policy” 1994; 15 (3): 345358.

39. Romei A., Ruggieri S., multidisciplinary survey on discrimination analysis, „The Knowledge Engineering Review” 2014; 29 (5): 582638.

40. Kamiran F., Karim A., Zhang X., Decision theory for discrimination-aware classification, w: Zaki M.J., Siebes A., Yu J.X., Goethals B., Webb G. I., Wu X., Proceedings of the IEEE International Conference on Data Mining (ICDM 2012), 2012: 924–929.

41. Kawecki M., Ogólne rozporządzenie ochronie danych osobowych. Wybrane zagadnienia, C.H. Beck, Warszawa 2017.

42. Wyrok Sądu Najwyższego dnia 3 września 2013 roku, sygn. akt WK 14/13.

43. Wyrok SN dnia 1 kwietnia 2008 roku, sygn. akt IV KK 381/07.

44. Burrel J., How the machine ‘thinks:’ Understanding opacity in machine learning algorithms, „Big Data & Society” 2016; 3 (1): 1–12.

45. Turilli M., Floridi L., The ethics of information transparency, „Ethics and Information Technology” 2009, 11 (2): 105122.

46. Rozporządzenia Parlamentu Europejskiego Rady (UE) 2016/679 27 kwietnia 2016 roku sprawie ochrony osób fizycznych związku przetwarzaniem ich danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46.

47. Barta P., Litwinski P., Rozporządzenie UE sprawie ochrony osób fizycznych związku przetwarzaniem danych osobowych swobodnym przepływem takich danychKomentarz, Wyd. C.H. Beck, Warszawa 2018.

48. European Commission, Article 29 Working Party Guidelines on Automated Decision-Making and Profiling for the purposes of Regulation 2016/679, 3 October 2017 r.Brussels 2017.

49. Floridi L., Watcher S., Mittelstadt B., Why right to explanation of automated decision-making does not exist in the General Data Protection Regulation, „International Data Privacy Law” 2017: 1–47.

50. Wachter S., Mittelstadt B., Russel C., Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR, „Harvard Journal of Law and Technology” 2018, https://ssrn.com/abstract=3063289 (dostęp: 27.01.2018).

51. Zielińska E., Sakowski K., Barcikowska-Szydło E., Ustawa zawodach lekarza lekarza dentysty: Komentarz, Wolters Kluwer Polska, Warszawa 2014.

52. Lisboa P.J.G., Interpretability in machine learning principles and practice, „International Workshop on Fuzzy Logic and Applications” 2013: 1521.

53. Markowetz A., Błaszkiewicz K., Montag C., Psycho-information: Big Data shaping modern psychometrics, „Medical Hypotheses” 2014; 82 (4): 405–411.

54. Van Otterlo M.machine learning view on profiling, w: Privacy, Due Process and the Computational Turn-Philosophers of Law Meet Philosophers of Technology, Routledge, Abingdon 2013.

55.  Projekt rezolucji sprawie prywatności fazie projektowania – 32. Międzynarodowa Konferencja Rzeczników Ochrony Danych Prywatności, Jerozolima, ­27–29.10.2010 r., http://www. giodo.gov.pl/pl/1520084/
3830 (dostęp: 12.12.2017).

Informacje

Informacje: Zdrowie Publiczne i Zarządzanie, 2017, s. 306 - 316

Typ artykułu: Oryginalny artykuł naukowy

Tytuły:

Angielski:

An approach for using self-teaching algorithms of artificial intelligences character in health care

Autorzy

Katedra Prawa Międzynarodowego i Stosunków Międzynarodowych , Wydział Prawa i Administracji, Uniwersytet Łódzki

Publikacja: 19.09.2023

Status artykułu: Otwarte __T_UNLOCK

Licencja: CC BY-NC-ND  ikona licencji

Udział procentowy autorów:

Krzysztof Kaźmierczak ( Autor) - 100%

Korekty artykułu:

-

Języki publikacji:

Angielski

Liczba wyświetleń: 2

Liczba pobrań: 2