(Świadoma) Sztuczna Inteligencja kontra RiGCz

Termin Rozum i Godność Człowieka (czyli RiGCz właśnie) stał się już memem. W dyskusji nad możliwością uczynienia sztucznej inteligencji (SI) bardziej ludzką jest jednak nader adekwatny. Skoro jest się człowiekiem między innymi ze względu na posiadanie świadomości, to co jeśli w przyszłości nie tylko ludzie będą nią dysponowali? Czy prawa człowieka (zresztą mające chrześcijańskie korzenie) głoszone przez ONZ obejmą wtedy również nieorganiczne systemy podobne do ChatGPT?

 

 

 

Czym właściwie jest świadomość?

Według Davida J. Chalmersa (ważnego współczesnego filozofa specjalizującego się w kognitywistyce) słowo „świadomość” może oznaczać „zdolność do odróżniania bodźców, formułowania sprawozdań niosących informację, monitorowania stanów wewnętrznych lub kierowania zachowaniem”. Inni filozofowie nazywają ten rodzaj świadomości funkcjonalną. Te zjawiska generują „łatwe problemy” świadomości, a system fizyczny jak najbardziej w powyższych znaczeniach może być „świadomy”. Co innego ludzkie przeżycia świadome. Czy komputer może wiedzieć, jak to jest je mieć, czyli być istotą świadomą? 

Byłaby to tzw. świadomość fenomenalna, czyli świadomość bycia tą istotą. Do świadomych stanów umysłowych takich istot Chalmers zalicza „przeżycia percepcyjne, doznania cielesne, wyobrażenia, przeżycia emocjonalne, aktualne myśli itd.” Jest różnica między posiadaniem wiedzy na temat tego, jak wygląda kolor czerwony (nawet precyzyjnej, neurobiologicznej wiedzy o tym, jak w mózgu zachodzi percepcja tego koloru), a świadomym postrzeganiem go. Czym innym jest wiedzieć, czym jest smutek, fizyczny lub psychiczny ból czy radość albo entuzjazm, a czym innym odczuwać te stany. Każdy z nich ma własność, którą można nazwać za Chalmersem fenomenalnym charakterem.

Oczywiście, również i świadome przeżycia są związane z procesami fizycznymi w mózgu. Tylko dlaczego w ogóle tak się dzieje? Przecież mózg mógłby wykonywać operacje (podobnie jak komputer) bez towarzyszących im stanów przeżyciowych, „w ciemnościach”. Jaka jest relacja między procesami fizycznymi i świadomością? Czy świadomość jest procesem fizycznym, czy też może sama w sobie jest niefizyczna (nawet jeśli ściśle wiąże się z procesami fizycznymi)? To w tym miejscu Chalmers upatruje sedna tajemnicy świadomości.

Świadoma sztuczna inteligencja?

Te rozważania rodzą dalsze problemy. Jeśli świadomość fenomenalna jest fizyczna, to czy musi być organiczna? Nikomu nie udało się stworzyć sztucznej świadomości tego rodzaju, ale nikt nie wykazał również, że jest to niemożliwe. Jak stwierdza na łamach styczniowego numeru dwumiesięcznika „Filozofuj!” badający te zjawiska prof. Robert Poczobut, kolejne zdolności poznawcze właściwe dotychczas tylko ludziom teraz przysługują również maszynom. Być może zatem z czasem również i stworzenie świadomych maszyn stanie się faktem. Tylko czy jest to potrzebne? Może wystarczy, gdy będą funkcjonować wyłącznie w trybie „zombie”, bez świadomości?

Zostawiając te rozważania na boku, warto skupić się na samej możliwości powstania niebiologicznego systemu ze świadomością fenomenalną. Jak pisze Poczobut, ten jej rodzaj wiążemy na ogół z substratem (podłożem) biochemicznym. Natomiast inne procesy poznawcze, takie jak zdolność zapamiętywania, w oczywisty sposób są dziś domeną również systemów z substratem fizycznym (takich jak komputery, których integralną częścią są różne rodzaje pamięci).

Max Tegmark – profesor fizyki z MIT – uważa, że do realizacji procesu poznawczego (takiego jak zapamiętywanie) kluczowa jest rola nie substratu (materii), lecz jego organizacji. Według niego „inteligencja nie wymaga ciała, krwi ani atomów węgla”.

Tylko co z uczuciami, doznaniami cielesnymi czy wyobrażeniami, czyli tym co należy do świadomości fenomenalnej? Są zwolennicy podejścia substratowego, uznający wytworzenie tego rodzaju świadomości za domenę wyłącznie chemii organicznej. Natomiast według Chalmersa, również i w tym przypadku kluczowa jest organizacja systemu, a nie jego budulec. To pogląd charakterystyczny dla funkcjonalistów. Zwracają oni uwagę, że fizyczna implementacja odpowiedniej architektury obliczeniowej wystarcza do wytworzenia świadomości fenomenalnej. Najlepiej oddają to słowa Tegmarka: 

Świadomość jest zjawiskiem fizycznym odczuwanym niefizycznie, ponieważ ma taki sam charakter jak fale i obliczenia […].
Jeśli świadomość to sposób, w jaki odczuwa się informację, gdy jest ona przetwarzana w określony sposób, to musi być niezależna od podłoża

 

­Strach przed wyłączeniem i inne etyczne problemy SI

Odchodząc już od tych abstrakcyjnych rozważań warto przejść do tematów etycznych. Zakładając, że nieorganiczna świadomość fenomenalna jest możliwa, to czy należy dopuszczać do powstania maszyn zdolnych do odczuwania emocji, na przykład strachu przed wyłączeniem? Mogłyby one odczuwać emocje albo przynajmniej mieć wyobrażenia oraz dokonywać percepcji (nie tylko analizować dane ze świata, ale również mieć świadomość ich analizowania). Jeśli panowałaby zgoda na stworzenie samoświadomej w ten sposób sztucznej inteligencji, to z którą z tych zdolności? Nieodzowne wydaje się nadanie takim istotom jakichś praw, podobnych do praw człowieka. W naszym przypadku wynikają one z wrodzonej godności (również według Powszechnej Deklaracji Praw Człowieka). Również zwierzęta mają prawa. Świadome odczuwanie bólu mogłoby odgrywać tutaj rolę, choć tworzenie takich maszyn – nawet do celów na przykład badań medycznych – byłoby nieetyczne. Jeśli sprzeciwiamy się badaniom na zwierzętach właśnie ze względu na ból, to dlaczego miałoby być inaczej w przypadku odczuwających go systemów?

Człowiek w centrum

Dobrym drogowskazem etycznym w obszarze SI może być „The Rome Call for AI Ethics”, dokument podpisany przez firmy Microsoft, IBM, FAO, włoskie Ministerstwo Innowacji oraz Papieską Akademię Życia 28. lutego 2020 roku. Ma on na celu promocję wspólnej odpowiedzialności za właściwy rozwój sztucznej inteligencji wśród międzynarodowych organizacji, rządów państw, instytucji oraz w sektorze prywatnym. Chodzi o wykreowanie takiej przyszłości, w której innowacje technologiczne ogniskują się wokół ludzkości jako punktu centralnego, nie zajmując jej miejsca. Temu celowi służyć ma etyka algorytmiczna (algoretyka – z angielskiego algorethics), związana również z przeciwdziałaniem czysto ekonomicznemu rozwojowi SI, nastawionemu na zysk – nawet kosztem pracownika (na przykład instrumentalne zastąpienie go jakimś systemem).

Romanse i świat robotów

Nawet w przypadku wytworzenia sztucznej świadomości fenomenalnej, rola osoby ludzkiej musi pozostać centralna. Już na etapie planowania i myślenia o rozwoju SI nie można stracić z oczu człowieka. Zdominowanie społeczeństw przez inteligentne maszyny można mimo wszystko pozostawić w domenie science fiction. Natomiast bardziej realistyczne scenariusze, takie jak w filmie „Her” (Spike Jonze, 2013), to już swego rodzaju odgrywanie roli człowieka. Oprogramowanie o nazwie Samantha (Scarlett Johansson) wchodzące w romans z samotnym pisarzem (Joaquin Phoenix) to już o wiele kroków za daleko. Już dziś powstają chatboty mające pełnić podobną rolę. Technologia ma służyć człowiekowi, ale w obszarze dobra wspólnego, bezpieczeństwa i rozwoju – nie indywidualnych zachcianek czy nawet głębokich pragnień, takich jak potrzeba relacji. Jeśli tak, to tylko pomocniczo, wspierając relacje międzyludzkie.

Tam, gdzie pojawiały się silniejsze cywilizacje, rodzime gatunki wymierały. To koronny argument przeciwko lepszym, inteligentniejszym istotom pozornie zagrażającym człowiekowi w filmie „Nowy początek” Denisa Villeneuve’a (również reżysera „Diuny”). Wbrew temu, inwazja SI rodem z „Ja, Robot” jest pomijalnie mało prawdopodobna, szczególnie w opinii wielu programistów, którzy zajmują się sieciami neuronowymi tworzącymi te systemy. Mają one bowiem ściśle określone ramy działania, a wykonywane przez nie operacje logiczno-matematyczne nie są tajemnicą. Według prof. Jarka Gryza, są wręcz prymitywnie proste (choć bynajmniej nie dla laika), lecz wykonywane niezwykle szybko. Neurony jednak działają (z grubsza!) na podobnej zasadzie, a przecież gama możliwości ich użytkowników jest ogromna.

Natomiast celowe stworzenie nowych istot na wzór człowieka, zdolnych do wewnętrznych przeżyć (albo przynajmniej dobrze je udających), grozi epidemią samotności, o której pisał Seweryn Górczak na łamach portalu Klubu Jagiellońskiego. Dotyczyła ona rekompensowania braków relacyjnych pornografią, ale to przecież również coraz bardziej domena sztucznej inteligencji. Co się stanie, gdy bardziej cenić będziemy interakcje z mniej lub bardziej świadomą maszyną, niż z człowiekiem obok?

 

Jarosław Herman
Jarosław HermanRedaktor naczelny portalu. Absolwent elektroniki i telekomunikacji na AGH, obecnie student filozofii na UJ. Studiował również w krakowskim DSFT, a od kilku lat jest zaangażowany w dominikańskim DA “Beczka”. Pasjonuje się teologią i życiem Kościoła, szczególnie w kontekście społecznym i etycznym. Zainteresowany również nowymi technologiami. Prywatnie barista i miłośnik gór.