Najnowsze badania z zakresu psychologii poznawczej potwierdzają, że nadmierne, oparte na dużym zaufaniu korzystanie ze sztucznej inteligencji wcale nie prowadzi do spełnienia transhumanistycznych marzeń o technologicznym nadczłowieku. Skutkuje raczej osłabieniem kluczowych funkcji poznawczych, które umożliwiają osobie krytyczną ocenę rzeczywistości i podejmowanie przemyślanych decyzji – pisze Jędrzej Stefanowicz.
Niewątpliwie jednym z wyznaczników bycia na bieżąco w kalejdoskopowo zmieniającym się świecie stało się w naszym społeczeństwie posiadanie najświeższych informacji o „umiejętnościach” sztucznej inteligencji. Codziennie stajemy się świadkami nowych przełomów ogłaszanych przez technologicznych entuzjastów, wychwalających możliwości oferowane przez model tej lub innej firmy, tonem przypominającym ton matki zauroczonej jej szybko rozwijającym się dzieckiem.
Wydaje się to być fenomen o tyle interesujący, że jednocześnie – w kontekście inteligencji „ludzkiej”, lub – jak stwierdza styczniowy dokument Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji Antiqua et nova – tej, wobec której słowo „inteligencja” stosuje się niemetaforycznie – zdajemy się słyszeć niewiele. Jeżeli już zaś słyszymy, to raczej albo w duchu przekonywania o podświadomych mechanizmach psychicznych warunkujących naszą ułomną inteligencję, albo w duchu neurobiologicznego „wyjaśniania” tejże. Zatem zasadnym – dla świadomego uczestnika naszego społeczeństwa – może wydać się pytanie: czy potrzebujemy jeszcze „ludzkiej” inteligencji?
Człowiek vs AI – debata Harisha
Przyjrzyjmy się w tym kontekście katolickiemu rozumieniu inteligencji. Jak czytamy w Antiqua et nova (17):
„Ludzie są »z samej swej natury ukierunkowani na komunię interpersonalną«, zdolni do wzajemnego poznania się, dawania siebie z miłości oraz wchodzenia w relację z innymi. Dlatego inteligencja ludzka nie jest odosobnioną zdolnością, lecz urzeczywistnia się w relacjach, znajdując swój pełny wyraz w dialogu, współpracy i solidarności. Uczymy się z innymi, uczymy się dzięki innym”
Szczególnym i pouczającym przykładem, w którym realizują się wszystkie trzy wymienione wyżej aspekty – dialog, współpraca oraz solidarność – jest posiadający swe korzenie w starożytności ideał debaty. Debaty będącej dialogiem, mającym prowadzić do podjęcia wspólnej decyzji uwzględniającej różne spojrzenia uczestników. Najprawdopodobniej niektórym z nas, a być może nawet większości, debata kojarzy się jednak z zupełnie jałową dyskusją lub swego rodzaju intelektualnym sportem, który nie jest ani dialogiem, ani współpracą, ani solidarnością – a już na pewno nie prowadzi do podjętego wspólnie działania. Taki sposób patrzenia możemy uznać za symptomatyczny dla niejednokrotnie opłakiwanego rozdźwięku pomiędzy theoria a praxis – myślą i działaniem.
W celu ukazania, w jaki sposób ów rozdźwięk związany jest z podejmowanym przez nas zagadnieniem, skierujmy naszą uwagę ku debacie, która odbyła się w 2019 roku w San Francisco. W dyskursywne szranki stanęli ze sobą międzynarodowy mistrz debatowania Harish Natarajan oraz Project Debater, sztuczna inteligencja zaprojektowana przez zespół badawczy z IBM. Strony miały przedstawić argumenty odpowiednio za i przeciw subsydiowaniu przedszkoli w Stanach Zjednoczonych.
Pomijając przepaść, która oddziela możliwości prezentowane przez Project Debater od tych charakteryzujących dzisiejsze modele, możemy na podstawie tego wydarzenia sformułować wnioski na temat różnic pomiędzy inteligencją ludzką i maszynową. Otóż pomimo przytoczenia znacznie mniejszej liczby faktów czy badań naukowych, debatę (w ocenie publiczności) wygrał Harish.
Można byłoby zaryzykować tezę, że przeważyły nie tyle bardziej subtelne schematy argumentacyjne, ile raczej niewątpliwa przewaga bycia osobą oraz umiejętność przekonywania, a więc oddziaływania poprzez swój ethos – postawę budzącą zaufanie i życzliwość, sugerującą solidarność. Oglądając debatę można było mieć wrażenie, że gdyby dać mu możliwość, Harish istotnie zaangażowałby się w polityczną walkę o będące tematem dyskusji subsydia. Być może więc publiczność intuicyjnie bardziej pozytywnie odebrała ten integralny obraz osoby mogącej nie tylko argumentować, ale także tworzyć poczucie wspólnoty i wywierać realny wpływ na jej kształt.
Czy jednak powinniśmy uznawać taki obraz za w jakimś sensie wartościowy, czy jest on jedynie naiwnym sentymentalizmem? Jak wiele charakterystycznych dla człowieka umiejętności można scedować na narzędzia (takie jak sztuczna inteligencja) bez rozbicia jego osobowej natury?
Integralną wizję człowieka na pewno szkicuje Antiqua et nova (26-28):
„[…] inteligencja ludzka ukazuje się wyraźniej jako zdolność stanowiąca integralną część sposobu, w jaki cała osoba angażuje się w rzeczywistość. Prawdziwe zaangażowanie wymaga objęcia całej pełni własnego bytu: duchowego, poznawczego, cielesnego i relacyjnego. […] Zgodnie z Bożym zamysłem, inteligencja w jej pełnym znaczeniu obejmuje także smakowanie tego, co prawdziwe, dobre i piękne”.
W dokumencie inteligencja jest zestawiana z perspektywą funkcjonalną, charakterystyczną dla AI i definiowaną przez – najczęściej ilościowo wyrażone – warunki wykonania danego zadania. Wyłania się nam zatem następujący obraz: ludzka inteligencja jest integralnie związana z pozostałymi aspektami bycia człowiekiem, a ze względu na jej przeznaczenie do „smakowania” i kontemplacji nie da się jej funkcjonalnie zredukować tak, aby następnie te funkcjonalnie zdefiniowane elementy zastąpić równoważnymi algorytmami sztucznej inteligencji.
Wydaje się na przykład, że człowiek, który dobrowolnie powierzyłby narzędziom komputerowym językowy aspekt swojej racjonalności – a więc możliwość wyrażania i odkrywania rzeczywistości w języku – zdegradowałby również swój wymiar duchowy i moralny, tracąc dostęp do głębi osiągalnej jedynie poprzez odnoszenie się do rzeczywistości na sposób językowy. Można oczywiście mieć wątpliwości co do adekwatności takiego opisu. Ostatecznie nie sądzimy, że posługiwanie się kalkulatorem bądź automatycznym tłumaczem – stanowiące formy cedowania na narzędzia zadań kojarzonych zwykle z inteligencją – pociąga za sobą jakiś uszczerbek na osobowej pełni życia człowieka.
Możemy jednak spróbować w pewnym stopniu podeprzeć opisaną wyżej wizję, korzystając z opublikowanych w tym roku badań z zakresu psychologii poznawczej, dotyczących wpływu korzystania z narzędzi opartych o sztuczną inteligencję na umiejętność krytycznego myślenia. Zdaje się bowiem, że wykazanie negatywnej korelacji pomiędzy silnym poleganiem na owych narzędziach a umiejętnością krytycznego myślenia, stanowiącą w perspektywie poznawczej spoiwo pozwalające podejmować racjonalne decyzje, stanowiłoby bardzo silną przesłankę do przyjęcia tezy o integralności osoby oraz o niebezpieczeństwie wiążącym się z zaniedbaniem harmonijnego rozwijania wszystkich jej aspektów.
Krytyczne myślenie i AI
Przeanalizujmy najpierw wyniki badań wykonanych przez zespół z Microsoftu (Lee et al. 2025). W ramach nich przeprowadzono ankietę na 319 pracownikach umysłowych, dotyczącą postrzeganego wpływu korzystania z generatywnej sztucznej inteligencji na krytyczne myślenie w trakcie pracy. Stwierdzono:
„Co zaskakujące, pomimo iż AI może poprawić efektywność, może również zredukować krytyczne zaangażowanie, szczególnie w mniej istotnych, rutynowych zadaniach, w których użytkownicy po prostu polegają na sztucznej inteligencji. Budzi to obawy o długoterminową zależność i zmniejszoną samodzielność w rozwiązywaniu problemów. […] Narzędzia GenAI wydają się redukować postrzegany przez pracowników wiedzy wysiłek związany z rozwiązywaniem zadań wymagających krytycznego myślenia, szczególnie kiedy mają oni wyższe zaufanie do możliwości sztucznej inteligencji” (tłum. własne).
W badaniach zauważono, że taka zależność od narzędzi sztucznej inteligencji, występująca szczególnie w sytuacji wiary w ich duże możliwości – bądź w rutynowych zadaniach, bądź w takich, co do których pracownicy nie byli przekonani o swoich własnych umiejętnościach – często prowadzi do bezkrytycznej akceptacji wygenerowanych wyników. Zgodnie z opisaną przez Lisanne Bainbridge „ironią automatyzacji” brak ćwiczenia umiejętności poznawczych w kontekście „codziennych” zadań może prowadzić do ich zaniku i bezradności w konfrontacji z bardziej istotnym, „niestandardowym” wyzwaniem.
Do analogicznych wniosków doszedł w swojej pracy Michael Gerlich:
„Nasze wyniki są zgodne z uprzednio przeprowadzonymi badaniami, wykazującymi, iż nadmierne poleganie na narzędziach AI może wpłynąć negatywnie na umiejętności krytycznego myślenia. […] Nasze badanie poszerza to [wcześniejsze, jakościowe rozumienie] o aspekt ilościowy poprzez wykazanie korelacji pomiędzy zwiększonym użyciem narzędzi AI a niższymi wynikami krytycznego myślenia, mierzonymi przez Test Krytycznego Myślenia Halperna (HCTA). […] To zaufanie prowadzi do zależności od AI przy wykonywaniu rutynowych zadań poznawczych, redukując potrzebę jednostek do głębszego zmierzenia się z przetwarzanymi przez nie informacjami” (tłum. własne).
Wygląda zatem na to, że najnowsze badania z zakresu psychologii poznawczej potwierdzają, iż nadmierne, oparte na dużym zaufaniu korzystanie ze sztucznej inteligencji wcale nie prowadzi do spełnienia transhumanistycznych marzeń o technologicznym nadczłowieku. Skutkuje raczej osłabieniem kluczowych funkcji poznawczych, które umożliwiają osobie krytyczną ocenę rzeczywistości i podejmowanie przemyślanych decyzji. Ostatecznie nadużywanie sztucznej inteligencji prowadzi do zaniku tej naturalnej. W rezultacie nieuchronnie osłabia się także integralność samej osoby.
Bibliografia
Bainbridge L. (1983), Ironies of Automation, „Automatica”
Dykasteria Nauki Wiary; Dykasteria ds. Kultury i Edukacji (2025), Antiqua et nova. Nota na temat relacji pomiędzy sztuczną inteligencją a inteligencją ludzką
Gerlich M. (2025), AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, „Societies”
Lee H.-P., Sarkar A., Tankelevitch L., Drosos I., Rintel S., Banks R., Wilson N. (2025), The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, Yokohama, ACM