Ekspansja sztucznej inteligencji a problem wartości
cytuj
pobierz pliki
RIS BIB ENDNOTEWybierz format
RIS BIB ENDNOTEEkspansja sztucznej inteligencji a problem wartości
Data publikacji: 19.12.2023
Sztuka Leczenia, Tom 38 (2023), Tom 38, Numer 2, s. 27 - 36
https://doi.org/10.4467/18982026SZL.23.012.18588Autorzy
Ekspansja sztucznej inteligencji a problem wartości
Autor poszukuje związków między ekspansją sztucznej inteligencji (SI) a problematyką wartości. Szczególną uwagę zwraca na trudności związane z „uzgadnianiem wartości” w ramach interakcji „algorytm vs człowiek”. Przybliża problemy związane z uwzględnianiem ludzkich wartości w projektowaniu złożonych algorytmów. Wynikają one z faktu, że preferowane wartości nie są spójne i mają charakter kontekstowy (a więc zmienny). Są też zależne od uwarunkowań kulturowych i różnic indywidualnych. Szczególnie trudne do przewidzenia są tzw. wartości sentymentalne. Wszystko to sprawia, że jednoznaczne zdefiniowanie respektowanych przez algorytm wartości jest prawie niemożliwe. Obecnie podejmowane są próby uwzględniania emotional computing w projektowaniu sztucznych systemów, co zdaniem wielu badaczy może okazać się przełomem w rozwoju SI. Podjęto już zaawansowane próby modelowania jednego z aspektów inteligencji emocjonalnej, jakim jest rozpoznawanie cudzych stanów emocjonalnych w oparciu o analizę mimiki twarzy. Zdaniem autora sukcesy w zakresie artificial emotional intelligence powinny raczej martwić niż cieszyć użytkowników Sieci. Poskutkują bowiem większą kontrolą ze strony używających ich instytucji, a w konsekwencji do dalszym ograniczaniem wolności osobistej indywidualnych użytkowników. Mudyń sugeruje, że ekspansja technologii cyfrowej (wbrew początkowym nadziejom) przyczynia się do zwiększonej centralizacji władzy i nierówności społeczno-ekonomicznych. Mówiąc słowami Norberta Wienera (1950), ojca cybernetyki, rozwój technologii cyfrowej przyczynia się do „the human use of human beings”.
The expansion of artificial intelligence and the problem of values
The author analyzes relation between the expansion of artificial intelligence (AI) and the issue of values. In particular, he points out the difficulties associated with “agreeing on values” in an algorithm vs during a human interaction. The article highlights the obstacles of taking human values into account while designing complex algorithms, which result from the fact that the preferred values are inconsistent, contextual and therefore variable. The values depend on cultural conditions and individual differences as well. In addition, the sentimental values are also difficult to predict and take into account. All this makes it almost impossible to unambiguously define the values to be respected by the algorithm. Currently, an attempt is being made to include “emotional computing” into a design of artificial systems, which, according to many researchers, may turn out to be a breakthrough in the development of AI. There are already advanced attempts being made to model one of the aspects of emotional intelligence, which is to recognise other people’s emotional states based on the analysis of their facial expressions. According to the author, developments in the field of artificial emotional intelligence should rather worry than satisfy the users of the internet. They will contribute to greater control exercised by the institutions that use them, and consequently to further limitation of personal freedom of the individual users. The author suggests that the expansion of digital technology (contrary to the initial hopes) contributes to increased centralization of power and socio-economic inequalities. In the words of Norbert Wiener (1950), the development of digital technology contributes to “the human use of human beings”.
Alisawi M., Yalcin N. (2023). Real-time emotion recognition using deep learning methods: systematic review. Intelligent Methods in Engineering Sciences, 2(1), 5–21, https://doi.org/10.58190/imiens.2023.7 (dostęp: 30.06.2023).
Artificial Intelligence Act, European Parliament, https://http://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf (dostęp: 21.06.2023).
Brockman J. (ed.) (2020). Possible Minds. 25 Ways of Looking at AI. New York: Penguin Books.
Dhope P., Neelagar M.B. (2022). Real-time emotion recognition from facial expressions using Artificial Intelligence. 2nd International Conference on Artificial Intelligence and Signal Processing (AISP). Vijayawada, 1–6, https://doi.org/10.1109/AISP53593.2022.9760654, https://ieeexplore.ieee.org/document/9760654 (dostęp: 9.07.2023).
Dragan A. (2020). Putting the human into AI equation. In: J. Brockman (ed.), Possible Minds. 25 Ways of Looking at AI. New York: Penguin Books, 134–142.
Ekman P., Friesen W.V., Hager J.C. (2002). Facial Action Coding System: The Manual on CD ROM. Salt Lake City: A Human Face.
Fitch W.T. (2016). Nano-intentionality. In: J. Brockman (ed.), What to Think About Machines That Think. New York: Harper Collins Publisher, 89–92.
Gigerenzer G. (2022). How to Stay Smart in a Smart World. Why Human Intelligence Still Beats Algorithms. London: Allen Lane.
Gopnik A. (2018). AI kontra czterolatek. W: J. Brockman (red.), Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia. Gliwice: Helion, 239–250.
Leijen I., van Herk H., Bardi A. (2022). Individual and generational value change in an adult population, a 12-year longitudinal panel study. Scientific Reports, 12:17844, https://doi.org/10.1038/s41598-022-22862-1, https://www.nature.com/srep/ (dostęp: 22.06.2023).
Łabanowicz K., Jarczyńska A. (2023). Projekt unijnego prawa w sprawie sztucznej inteligencji przyjęty. To będzie rewolucja na miarę RODO, https://www.onet.pl/biznes/forbes/parlament-europejski-przyjal-projekt-ai-act-sztuczna-inteligencja (dostęp: 14.06.2023).
Mayers D.G., Twenge J.M. (2018). Social Psychology, ed. XIII. New York: McGraw Hill.
Mudyń K. (2010). Digitalizacja rzeczywistości a problem dekontekstualizacji istnienia. W:T. Rowiński, R. Tadeusiewicz (red.), Psychologia i informatyka. Ich synergia i kontradykcje. Warszawa: Wydawnictwo UKSW, 191–204.
Mudyń K. (2012). O różnych aspektach antropomorfizacji, „systemach intencjonalnych” i dyskretnym uroku technologii. W: J. Morbitzer, E. Musiał (red.), Człowiek–Media–Edukacja. Kraków: Wydaw. KTiME UP, 307–312.
Mudyń K. (2014). Miedzy antropomorfizacją a dehumanizacją. Powracający problem natury ludzkiej. Czasopismo Psychologiczne, 1(20), 1–9.
Mudyń K. (2022). „Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia”– recenzja. Tygodnik Spraw Obywatelskich, 137(33), https://instytutsprawobywatelskich.pl/krzysztof-mudyn-czlowiek-na-rozdrozu-recenzja/ (dostęp: 07.2023).
Mudyń K. (2022). W poszukiwaniu biocentrycznej definicji inteligencji. Rośliny są inteligentniejsze od „inteligentnych maszyn”, https://www.researchgate.net/publication/365568791_W_poszukiwaniu_biocentrycznej_definicja_
inteligencji_Rosliny_sa_inteligentniejsze_od_inteligentnych_maszyn_In_search_of_a_biocentric_
definition_of_intelligence_Plants_are_smarter_than_%27smart_machines%27 (dostęp: 1.03.2023).
Nisbett R.E. (2016). Mindware. Narzędzia skutecznego myślenia. Sopot: Wydawnictwo „Smak Słowa”.
Picard R. (1997). Affective Computing. Cambridge, MA: MIT Press
Pietikäinen M., Silvén O. (2021). Challenges of Artificial Intelligence: from Machine Learning and Computer Vision to Emotional Intelligence, http://urn.fi/urn:isbn:9789526231990 (dostęp: 3.01.2023).
Rokeach M. (1973). The Nature of Human Values. New York: The Free Press.
Russell S. (2020). O przekazywaniu maszynom ogólnych celów. W: J. Brockman (red.), Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia. Gliwice: Wydawnictwo „Helion”, 41–53.
Schuller D., Björn W., Schuller B.W. (2018). The age of artificial emotional intelligence. Computer, 51(9), 38–46, DOI:10.1109/MC.2018.3620963, https://ieeexplore.ieee.org/document/8481266 (dostęp: 5.07.2023).
Young K.S. (1998). Caught in the Net: How to Recognize the Signs of Internet Addiction – and a Winning Strategy for Recovery. New York: John Wiley & Sons.
Walsh T. (2018). To żyje. Sztuczna inteligencja. Od logicznego fortepianu po zabójcze roboty. Warszawa: Wydawnictwo Naukowe PWN.
Wiener N. (1950). The Human Use of Human Beings. Cybernetics and Society, https://monoskop.org/images/6/60/Wiener_Norbert_The_Human_Use_of_Human_Beings_1989.pdf (dostęp: 9.08.2021). Wiener N. (1961). Cybernetyka i społeczeństwo. Warszaydawnictwo KiW.
Informacje: Sztuka Leczenia, Tom 38 (2023), Tom 38, Numer 2, s. 27 - 36
Typ artykułu: Oryginalny artykuł naukowy
Tytuły:
Ekspansja sztucznej inteligencji a problem wartości
The expansion of artificial intelligence and the problem of values
Uniwersytet Komisji Edukacji Narodowej w Krakowie
Polska
Publikacja: 19.12.2023
Otrzymano: 12.07.2023
Zaakceptowano: 30.07.2023
Status artykułu: Otwarte
Licencja: CC BY
Udział procentowy autorów:
Korekty artykułu:
-Języki publikacji:
PolskiLiczba wyświetleń: 317
Liczba pobrań: 309