Krzysztof Mudyń
Sztuka Leczenia, Tom 38, Numer 1, Tom 38 (2023), s. 25 - 34
https://doi.org/10.4467/18982026SZL.23.003.17917(Un)deliberate ignorance. Discreet charm and adaptive functions of motivated ignorance
First, the author cites several definitions of wilful ignorance and analyzes the concept in relation to related terms such as “voluntary blindness”, “information avoidance” and “negative knowledge”. Then he presents the six groups of motives distinguished by Engel and Hartwig, provoking the occurrence of the phenomenon of deliberate ignorance. The author proposes to reduce this division to three more general motives, i.e. emotional, pragmatic and moral category, and characterizes their specificity. Referring to psychoanalytic tradition and the role attributed by the modern experimental psychology to unconscious processes, he notes that not every type of motivated ignorance is preceded by a “deliberate”, conscious decision. Many manifestations of ignorance are spontaneous (but not accidental) products of the activity of unconscious processes. More or less “deliberate” ignorance is a frequent reason for potential patients to avoid or delay medical examination. The practical problem is how to counteract this unfavorable tendency.
Streszczenie
Na wstępie autor przytacza kilka definicji rozmyślnej niewiedzy i analizuje to pojęcie w relacji do terminów pokrewnych, takich jak „dobrowolna ślepota”, „unikanie informacji” oraz „wiedza negatywna”. Następnie przedstawia wyróżnione przez Engela i Hartwiga sześć grup motywów, prowokujących wystąpienie zjawiska rozmyślnej niewiedzy. Autor proponuje zredukowanie tego podziału do trzech ogólniejszych motywów, tj. emocjonalnych, pragmatycznych i moralnych, charakteryzując ich specyfikę. Nawiązując do tradycji psychoanalitycznej i roli przypisywanej przez współczesną psychologię eksperymentalną procesom nieświadomym, podkreśla, że nie każdy rodzaj umotywowanej niewiedzy poprzedza „rozmyślna”, świadoma decyzja. Wiele przejawów niewiedzy to spontaniczny (lecz nieprzypadkowy) produkt aktywności procesów nieświadomych. Mniej lub bardziej „rozmyślna” niewiedza jest częstym powodem unikania lub opóźniania badań medycznych przez potencjalnych pacjentów. Problemem praktycznym jest to, w jaki sposób przeciwdziałać tej niekorzystnej tendencji.
Krzysztof Mudyń
Sztuka Leczenia, Tom 38, Numer 1, Tom 38 (2023), s. 35 - 43
https://doi.org/10.4467/18982026SZL.23.009.17923First, the author cites several of wilful ignorance and analyzes the concept in relation to related terms such as “voluntary blindness”, “information avoidance” and “negative knowledge”. Then he presents the six groups of motives distinguished by Engel and Hartwig, which may lead to the phenomenon of deliberate ignorance. The author proposes to reduce The author proposes to reduce this taxonomy to three more general motives, i.e. emotional, pragmatic and moral category, and characterizes their specificity. Referring to psychoanalytic tradition and the role attributed by the modern experimental psychology to unconscious processes, he notes that not every type of motivated ignorance is preceded by a “deliberate”, conscious decision. Many manifestations of ignorance are spontaneous (but not accidental) products of the activity of unconscious processes. More or less “deliberate” ignorance is a frequent reason for potential patients to avoid or delay medical examination. The practical problem is how to counteract this unfavorable tendency.
Krzysztof Mudyń
Sztuka Leczenia, Tom 38, Numer 2, Tom 38 (2023), s. 27 - 36
https://doi.org/10.4467/18982026SZL.23.012.18588Autor poszukuje związków między ekspansją sztucznej inteligencji (SI) a problematyką wartości. Szczególną uwagę zwraca na trudności związane z „uzgadnianiem wartości” w ramach interakcji „algorytm vs człowiek”. Przybliża problemy związane z uwzględnianiem ludzkich wartości w projektowaniu złożonych algorytmów. Wynikają one z faktu, że preferowane wartości nie są spójne i mają charakter kontekstowy (a więc zmienny). Są też zależne od uwarunkowań kulturowych i różnic indywidualnych. Szczególnie trudne do przewidzenia są tzw. wartości sentymentalne. Wszystko to sprawia, że jednoznaczne zdefiniowanie respektowanych przez algorytm wartości jest prawie niemożliwe. Obecnie podejmowane są próby uwzględniania emotional computing w projektowaniu sztucznych systemów, co zdaniem wielu badaczy może okazać się przełomem w rozwoju SI. Podjęto już zaawansowane próby modelowania jednego z aspektów inteligencji emocjonalnej, jakim jest rozpoznawanie cudzych stanów emocjonalnych w oparciu o analizę mimiki twarzy. Zdaniem autora sukcesy w zakresie artificial emotional intelligence powinny raczej martwić niż cieszyć użytkowników Sieci. Poskutkują bowiem większą kontrolą ze strony używających ich instytucji, a w konsekwencji do dalszym ograniczaniem wolności osobistej indywidualnych użytkowników. Mudyń sugeruje, że ekspansja technologii cyfrowej (wbrew początkowym nadziejom) przyczynia się do zwiększonej centralizacji władzy i nierówności społeczno-ekonomicznych. Mówiąc słowami Norberta Wienera (1950), ojca cybernetyki, rozwój technologii cyfrowej przyczynia się do „the human use of human beings”.
The expansion of artificial intelligence and the problem of values
The author analyzes relation between the expansion of artificial intelligence (AI) and the issue of values. In particular, he points out the difficulties associated with “agreeing on values” in an algorithm vs during a human interaction. The article highlights the obstacles of taking human values into account while designing complex algorithms, which result from the fact that the preferred values are inconsistent, contextual and therefore variable. The values depend on cultural conditions and individual differences as well. In addition, the sentimental values are also difficult to predict and take into account. All this makes it almost impossible to unambiguously define the values to be respected by the algorithm. Currently, an attempt is being made to include “emotional computing” into a design of artificial systems, which, according to many researchers, may turn out to be a breakthrough in the development of AI. There are already advanced attempts being made to model one of the aspects of emotional intelligence, which is to recognise other people’s emotional states based on the analysis of their facial expressions. According to the author, developments in the field of artificial emotional intelligence should rather worry than satisfy the users of the internet. They will contribute to greater control exercised by the institutions that use them, and consequently to further limitation of personal freedom of the individual users. The author suggests that the expansion of digital technology (contrary to the initial hopes) contributes to increased centralization of power and socio-economic inequalities. In the words of Norbert Wiener (1950), the development of digital technology contributes to “the human use of human beings”.
Krzysztof Mudyń
Sztuka Leczenia, Tom 39 Numer 1, Tom 39 (2024), s. 27 - 38
https://doi.org/10.4467/18982026SZL.24.002.19765Intuicja rozumiana jest tutaj jako inteligencja nieświadomości, uwzględniająca całość posiadanych przez podmiot informacji oraz indywidualnych zdolności i preferencji. Intuicja daje o sobie znać na różne sposoby. Współpracuje ze świadomością przy podejmowaniu ważniejszych decyzji lub działa bezpośrednio, sterując zachowaniem jednostki (tzw. inteligencja operacyjna). Autor zastanawia się nad rolą intuicji w ucyfrowionym świecie i dochodzi do wniosku, że technologia cyfrowa częściowo zastępuje jej funkcję, lecz zarazem ogranicza i blokuje jej rozwój. Zauważa, że pojęcie intuicji w psychologii eksperymentalnej zostało niesłusznie zawężone do spontanicznie wykorzystywanych heurystyk w odpowiedzi na nieistotne pytania, co zwykle prowadzi do tendencyjnych i nietrafnych ocen. Na koniec autor wysuwa sugestię, że istnieje pewna analogia pomiędzy ludzką intuicją, traktowaną jako inteligencja nieświadomości, a kierunkiem rozwoju sztucznej inteligencji. Stosowanie tzw. głębokiego maszynowego uczenia sprawia bowiem, że coraz mniej wiemy o przebiegu procesów zachodzących w „czarnej skrzynce”, prowadzących często do spektakularnych wyników. Termin digital intuition wydaje się adekwatnym określeniem tego stanu rzeczy. Wspólnym mianownikiem ludzkiej oraz cyfrowej intuicji jest to, że procesy przetwarzania informacji, choć prowadzą do pożądanych efektów, pozostają niedostępne zarówno dla świadomości podmiotu, jak i dla użytkownika (a nawet konstruktora) inteligentnej maszyny.
Krzysztof Mudyń
Sztuka Leczenia, Tom 39 Numer 1, Tom 39 (2024), s. 39 - 49
https://doi.org/10.4467/18982026SZL.24.008.19833Intuicja rozumiana jest tutaj jako inteligencja nieświadomości, uwzględniająca całość posiadanych przez podmiot informacji oraz indywidualnych zdolności i preferencji. Intuicja daje o sobie znać na różne sposoby. Współpracuje ze świadomością przy podejmowaniu ważniejszych decyzji lub działa bezpośrednio, sterując zachowaniem jednostki (tzw. inteligencja operacyjna). Autor zastanawia się nad rolą intuicji w ucyfrowionym świecie i dochodzi do wniosku, że technologia cyfrowa częściowo zastępuje jej funkcję, lecz zarazem ogranicza i blokuje jej rozwój. Zauważa, że pojęcie intuicji w psychologii eksperymentalnej zostało niesłusznie zawężone do spontanicznie wykorzystywanych heurystyk w odpowiedzi na nieistotne pytania, co zwykle prowadzi do tendencyjnych i nietrafnych ocen. Na koniec autor wysuwa sugestię, że istnieje pewna analogia pomiędzy ludzką intuicją, traktowaną jako inteligencja nieświadomości, a kierunkiem rozwoju sztucznej inteligencji. Stosowanie tzw. głębokiego maszynowego uczenia sprawia bowiem, że coraz mniej wiemy o przebiegu procesów zachodzących w „czarnej skrzynce”, prowadzących często do spektakularnych wyników. Termin digital intuition wydaje się adekwatnym określeniem tego stanu rzeczy. Wspólnym mianownikiem ludzkiej oraz cyfrowej intuicji jest to, że procesy przetwarzania informacji, choć prowadzą do pożądanych efektów, pozostają niedostępne zarówno dla świadomości podmiotu, jak i dla użytkownika (a nawet konstruktora) inteligentnej maszyny.
Krzysztof Mudyń
Sztuka Leczenia, Tom 38, Numer 2, Tom 38 (2023), s. 37 - 46
https://doi.org/10.4467/18982026SZL.23.017.18684The author analyzes relation between the expansion of artificial intelligence (AI) and the issue of values. In particular, he points out the difficulties associated with “agreeing on values” in an algorithm vs during a human interaction. The article highlights the obstacles of taking human values into account while designing complex algorithms, which result from the fact that the preferred values are inconsistent, contextual and therefore variable. The values depend on cultural conditions and individual differences as well. In addition, the sentimental values are also difficult to predict and take into account. All this makes it almost impossible to unambiguously define the values to be respected by the algorithm. Currently, an attempt is being made to include “emotional computing” into a design of artificial systems, which, according to many researchers, may turn out to be a breakthrough in the development of AI. There are already advanced attempts being made to model one of the aspects of emotional intelligence, which is to recognise other people’s emotional states based on the analysis of their facial expressions. According to the author, developments in the field of artificial emotional intelligence should rather worry than satisfy the users of the internet. They will contribute to greater control exercised by the institutions that use them, and consequently to further limitation of personal freedom of the individual users. The author suggests that the expansion of digital technology (contrary to the initial hopes) contributes to increased centralization of power and socio-economic inequalities. In the words of Norbert Wiener (1950), the development of digital technology contributes to “the human use of human beings”.
Krzysztof Mudyń
Sztuka Leczenia, Tom 39 Numer 2, 2024 (Early View)