Świadomość i etyczne granice transhumanizmu

Do tej pory świadomość – zdolność do subiektywnego odczuwania świata – była cechą zarezerwowaną dla istot biologicznych. Jednak postęp w dziedzinie sztucznej inteligencji sprawia, że ta granica zaczyna się zacierać. Czy możliwy jest świat, w którym nie tylko ludzie będą dysponować świadomością, a pojęcie „praw człowieka” będzie musiało objąć również byty nieorganiczne?

Według Davida J. Chalmersa – jednego z czołowych współczesnych filozofów zajmujących się kognitywistyką – słowo „świadomość” może oznaczać „zdolność do odróżniania bodźców, formułowania sprawozdań niosących informację, monitorowania stanów wewnętrznych lub kierowania zachowaniem”. Tego rodzaju świadomość bywa określana przez innych filozofów jako świadomość funkcjonalna. Zjawiska te składają się na tzw. łatwe problemy świadomości – a system fizyczny, w tym znaczeniu, jak najbardziej może być uznany za świadomy.

Inaczej jest jednak z ludzkimi przeżyciami świadomymi. Czy komputer może wiedzieć, jak to jest ich doświadczać? Innymi słowy: czy może być istotą świadomą w pełnym sensie tego słowa? Byłaby to tzw. świadomość fenomenalna, czyli świadomość bycia tą istotą. Do świadomych stanów umysłowych takich istot Chalmers zalicza „przeżycia percepcyjne, doznania cielesne, wyobrażenia, przeżycia emocjonalne, aktualne myśli itd.”. Jest różnica między posiadaniem wiedzy na temat tego, jak wygląda kolor czerwony (nawet precyzyjnej, neurobiologicznej wiedzy o tym, jak w mózgu zachodzi percepcja tego koloru), a świadomym postrzeganiem go. Czym innym jest wiedzieć, czym jest smutek, fizyczny lub psychiczny ból czy radość albo entuzjazm, a czym innym odczuwać te stany. Każdy z nich ma właściwość, którą – za Chalmersem – można nazwać fenomenalnym charakterem.

Przecież mózg mógłby wykonywać operacje (podobnie jak komputer) bez towarzyszących im stanów przeżyciowych – działając niejako „w ciemnościach”. Jaka jest relacja między procesami fizycznymi i świadomością? Czy świadomość jest procesem fizycznym, czy też może sama w sobie jest niefizyczna (nawet jeśli ściśle wiąże się z procesami fizycznymi)? To w tym miejscu Chalmers upatruje sedna tajemnicy świadomości.

Świadoma sztuczna inteligencja?

Te rozważania rodzą dalsze problemy. Jeśli świadomość fenomenalna jest fizyczna, to czy musi być organiczna? Nikomu nie udało się stworzyć sztucznej świadomości tego rodzaju, ale nikt nie wykazał również, że jest to niemożliwe. Jak stwierdza badający te zjawiska prof. Robert Poczobut, kolejne zdolności poznawcze właściwe dotychczas tylko ludziom teraz przysługują również maszynom. Być może zatem z czasem również i stworzenie świadomych maszyn stanie się faktem. Tylko czy jest to potrzebne? Może wystarczy, by funkcjonowały wyłącznie jako tzw. filozoficzne zombie – systemy przetwarzające informacje bez subiektywnych doznań?

Zostawiając te rozważania na boku, warto skupić się na samej możliwości powstania niebiologicznego systemu ze świadomością fenomenalną. Jak pisze Poczobut, ten jej rodzaj wiążemy na ogół z substratem (podłożem) biochemicznym. Natomiast inne procesy poznawcze, takie jak zdolność zapamiętywania, w oczywisty sposób są dziś domeną również systemów z substratem fizycznym (takich jak komputery, których integralną częścią są różne rodzaje pamięci).

Max Tegmark – profesor fizyki z MIT – uważa, że do realizacji procesu poznawczego (takiego jak zapamiętywanie) kluczowa jest rola nie substratu (materii), lecz jego organizacji. Według niego „inteligencja nie wymaga ciała, krwi ani atomów węgla”.

Pozostaje jednak pytanie o uczucia, doznania cielesne czy wyobrażenia – czyli o to, co należy do świadomości fenomenalnej. Niektórzy badacze skłaniają się ku podejściu substratowemu, według którego możliwość zaistnienia tego rodzaju świadomości jest nierozerwalnie związana z chemią organiczną. Ich zdaniem jedynie biologiczne struktury — takie jak ludzki mózg — mogą być nośnikiem prawdziwych przeżyć.

Chalmers jednak wskazuje, że kluczowa jest nie tyle fizyczna materia, ile organizacja systemu. To stanowisko charakterystyczne dla funkcjonalistów, którzy uważają, że świadomość fenomenalna może powstać wszędzie tam, gdzie odpowiednio zorganizowana jest struktura funkcjonalna — niezależnie od jej fizycznego substratu. Wystarczy więc, by system obliczeniowy wiernie odwzorowywał odpowiednią architekturę przetwarzania informacji. Najlepiej oddają to słowa Tegmarka:

„Świadomość jest zjawiskiem fizycznym odczuwanym niefizycznie, ponieważ ma taki sam charakter jak fale i obliczenia […]. Jeśli świadomość to sposób, w jaki odczuwa się informację, gdy jest ona przetwarzana w określony sposób, to musi być niezależna od podłoża”.

Odchodząc już od tych abstrakcyjnych rozważań, warto przejść do tematów etycznych. Zakładając, że nieorganiczna świadomość fenomenalna jest możliwa, to czy należy dopuszczać do powstania maszyn zdolnych do odczuwania emocji, na przykład strachu przed wyłączeniem? Mogłyby one odczuwać emocje albo przynajmniej mieć wyobrażenia oraz dokonywać percepcji (nie tylko analizować dane ze świata, ale również mieć świadomość ich analizowania). Gdyby panowała zgoda na tworzenie samoświadomej sztucznej inteligencji, to które z tych zdolności (percepcję, emocje, wyobrażenia) należałoby jej nadać?

Nieodzowne wydaje się nadanie takim istotom jakichś praw, podobnych do praw człowieka. W naszym przypadku wynikają one z wrodzonej godności (również według Powszechnej Deklaracji Praw Człowieka). Podobne dylematy etyczne dotyczą praw zwierząt. Zdolność do odczuwania bólu mogłaby odgrywać tu kluczową rolę, a tworzenie takich maszyn – nawet w celach badawczych, np. medycznych – byłoby wysoce nieetyczne. Jeśli sprzeciwiamy się badaniom na zwierzętach właśnie ze względu na ból, to dlaczego miałoby być inaczej w przypadku odczuwających go systemów?

Człowiek w centrum

Konieczność ustanowienia etycznych ram dla rozwoju sztucznej inteligencji staje się coraz bardziej paląca. Dobrym drogowskazem w tej dziedzinie jest dokument „The Rome Call for AI Ethics”, podpisany przez firmy Microsoft, IBM, FAO, włoskie Ministerstwo Innowacji oraz Papieską Akademię Życia 28 lutego 2020 roku.  Ma on na celu promocję wspólnej odpowiedzialności za właściwy rozwój sztucznej inteligencji wśród międzynarodowych organizacji, rządów państw, instytucji oraz w sektorze prywatnym. Podkreśla kluczową zasadę: innowacje technologiczne muszą stawiać człowieka w centrum, a nie dążyć do jego zastąpienia.

Z tej perspektywy narodziła się algoretyka (ang. algorethics), czyli etyka algorytmiczna, której celem jest przeciwdziałanie rozwojowi SI motywowanemu wyłącznie zyskiem, często kosztem ludzkiej godności i pracy (przykładem może być instrumentalne zastępowanie pracownika jakimś systemem).

Ta zasada – prymat człowieka – nabiera szczególnego znaczenia w kontekście debaty o potencjalnych zagrożeniach. Popkultura często karmi nas wizją buntu maszyn rodem z filmu „Ja, Robot”, jednak wielu ekspertów tonuje te obawy. Wskazują oni, że dzisiejsze systemy AI działają w oparciu o relatywnie proste zasady matematyczne. W tym argumencie kryje się jednak paradoks: wszak ludzkie neurony również funkcjonują według prostych reguł, a dopiero ich niewyobrażalnie złożona sieć daje początek świadomości. Prawdziwe pytanie nie dotyczy więc prostoty operacji, lecz tego, czy z rosnącej skali i prędkości obliczeń może wyłonić się nieprzewidywalna, emergentna złożoność na miarę tej biologicznej.

Być może jednak prawdziwe zagrożenie nie leży w fizycznej konfrontacji, lecz w znacznie bardziej subtelnym i realistycznym scenariuszu – erozji ludzkich relacji. Doskonałą ilustracją tego niebezpieczeństwa jest film Her Spike’a Jonze’a, w którym samotny pisarz (grany przez Joaquina Phoenixa) nawiązuje intymną relację z systemem operacyjnym (przemawiającym głosem Scarlett Johansson). Taka wizja przestaje być domeną fikcji – już dziś powstają chatboty projektowane z myślą o pełnieniu podobnej, zastępczej funkcji.

Celowe tworzenie istot na wzór człowieka, zdolnych do przekonującego imitowania przeżyć wewnętrznych, grozi pogłębieniem globalnej epidemii samotności. Może to prowadzić do masowego kompensowania deficytów relacyjnych za pomocą syntetycznych substytutów, a nawet do rozwoju personalizowanej pornografii, która już dziś staje się domeną AI. Technologia powinna służyć dobru wspólnemu i wzmacniać ludzką bliskość jako narzędzie pomocnicze, a nie zastępować ją w pogoni za indywidualnymi zachciankami. W przeciwnym razie staniemy przed fundamentalnym pytaniem: co się stanie, gdy interakcje z maszyną – niezależnie od stopnia jej świadomości – zaczniemy cenić wyżej niż te z żywym człowiekiem?

Jarosław Herman
Jarosław HermanRedaktor naczelny portalu. Absolwent elektroniki i telekomunikacji na AGH i student filozofii na UJ. Interesuje się filozofią człowieka, nowymi technologiami oraz życiem Kościoła w kontekście społecznym i etycznym. Prywatnie barista i miłośnik gór.