Cyfrowy Wielki Brat patrzy, ale to nie zawsze złe spojrzenie

Algorytmy sztucznej inteligencji służące do rozpoznawania twarzy lub szacowania wieku to chińskie narzędzie masowo naruszające wolność. Jednocześnie ta technologia może służyć człowiekowi, gdy działa w sposób zgodny z zasadami ochrony prywatności, czego przykładem są niedawne europejskie precedensy.

W obecnych czasach technologia rozpoznawania twarzy jest już częścią naszej codzienności. Wykorzystywana jest do takich czynności jak odblokowywanie telefonu (każde “jabłko” dzięki Face ID zna dziś bardzo dobrze swojego właściciela) czy weryfikowanie płatności. Warto sobie zadać pytanie, gdzie leży granica między wygodą a kontrolą, a dobrym przykładem może być system zaufania społecznego funkcjonujący w Chinach.

Natomiast bardzo dobrym przykładem rozwiązania szanującego prywatność jest ustawa, która w kwietniu 2025 roku weszła w życie we Francji. Wszystkie strony z treściami dla dorosłych mają obowiązek stosowania tzw. podwójnej ślepej (ang. double-blind) weryfikacji wieku. Strony internetowe nie znają tożsamości użytkowników, a firmy odpowiedzialne za weryfikację wieku nie wiedzą, do jakiej strony użytkownik chce uzyskać dostęp. W ten sposób zachowywana jest pełna prywatność przy jednoczesnym chronieniu osób nieletnich. Wróćmy jednak na chwilę do Chin.

Wielki Brat o skośnych oczach

W największych chińskich miastach umieszczone są miliony kamer, które śledzą przestrzeń publiczną. Nie są to jednak zwykłe urządzenia monitorujące, których głównym zadaniem jest zapewnienie bezpieczeństwa. Zintegrowane są z zaawansowanymi algorytmami sztucznej inteligencji, które w czasie rzeczywistym rozpoznają twarze przechodniów i dopasowują identyfikacje osób do rekordów w bazie danych. Jest to jeden ze sposobów, w jaki działa chiński system zaufania społecznego, mający na celu ocenianie obywateli. Każde złe zachowanie (np. zaśmiecanie środowiska, przejście na czerwonym świetle) skutkuje utratą punktów zaufania. Konsekwencją ich niskiego poziomu może być problem z podróżowaniem, zatrudnieniem czy też dostępem do kredytu.

To urzeczywistnienie cyfrowego panoptykonu, w którym algorytmy sztucznej inteligencji przydzielają ocenę obywatelom, a państwo jest wszechwiedzącym obserwatorem. Istnieją też jednak przecież podobne systemy, których głównym celem nie jest kontrola czy segregacja obywateli, lecz na przykład zapewnianie bezpieczeństwa czy ochrona małoletnich.

Horyzont wzroku Wielkiego Brata

Do rozwoju technologii rozpoznawania twarzy przyczyniły się systemy sztucznej inteligencji wykorzystujące głębokie sieci neuronowe (ang. deep learning), składające się z wielu warstw przetwarzających dane. Sztuczna inteligencja do identyfikacji twarzy potrzebuje milionów obliczeń oraz setek tysięcy przykładów treningowych (zdjęć twarzy), aby nauczyć się najbardziej istotnych cech pozwalających rozpoznać daną osobę.

Algorytm, analizując zdjęcie z monitoringu, musi na początku dokonać detekcji obrazu i znalezieniu wzorców charakterystycznych dla twarzy człowieka. Sztuczna inteligencja nie potrafi oczywiście wprost interpretować emocji czy indywidualnych cech człowieka. Zamiast tego bierze pod uwagę układ pikseli, ich proporcje, kontrasty, kąty i punkty charakterystyczne między nimi (np. odległość między oczami, kształt łuku brwiowego). System znajduje odpowiednie punkty, a następnie przekształca je w matematyczny identyfikator, zwany „wektorem cech”. To właśnie ten wektor, a nie konkretne zdjęcie, jest następnie porównywany z innymi i przechowywany w bazie danych. Na jego podstawie dokonywana jest identyfikacja osoby czy szacowanie innych zmiennych (np. wieku).

Gdzie trafiają dane po skończonej analizie? W większości systemów komercyjnych (np. lotniska, galerie handlowe) dane są usuwane natychmiastowo po wykonaniu zadania lub przechowywane tymczasowo na krótki okres w chmurach obliczeniowych lokalnych serwerów. W przypadku chińskiego ww. systemu dane są dopasowywane do tożsamości obywateli, a następnie zapisywane i gromadzone przez organy administracji rządowej.

Istotnym elementem w przypadku algorytmów do rozpoznawania twarzy jest zapewnienie odpowiedniego zbioru danych, na których model sztucznej inteligencji będzie w stanie wyuczyć się charakterystycznych cech. Taki zbiór powinien być zbalansowany pod względem wieku, płci, koloru skóry i pochodzenia. Większość wczesnych baz danych zawierała nieproporcjonalną ilość zdjęć białych mężczyzn, skutkiem czego algorytmy nauczyły rozpoznawać się ich najlepiej. Osoba nienależąca do tej grupy miała więc statystycznie większe szanse na błędną identyfikację, co mogło prowadzić do niesprawiedliwych ocen lub odmów dostępu.

Godność i wolność kontra detekcja

Analiza techniczna zaprezentowana w poprzedniej części pokazała, że algorytmy również są podatne na błędy. Gdyby jednak technologia ta była idealnie precyzyjna, to jej wykorzystanie do masowego nadzoru rodzi bardziej znaczący problem. Kościół katolicki przypomina o istnieniu etycznych granic, których żadna technologia, bez względu na efektywność, nie ma prawa przekraczać.

Chrześcijańska wizja człowieka opiera się na jego przyrodzonej i niezbywalnej godności. Naturalnie nie jest to więc godność zależna od „punktów zaufania”. Jak mówi Kompendium Nauki Społecznej Kościoła:

„Człowiek istnieje jako byt jedyny i niepowtarzalny, istnieje jako „ja” zdolne do zrozumienia siebie, do władania sobą, do decydowania o sobie. Osoba ludzka jest istotą rozumną i świadomą, zdolną do refleksji nad sobą, a więc do tego, aby być świadomą siebie i swoich czynów”.

Biorąc pod uwagę tę perspektywę, chiński system zaufania społecznego uzurpuje sobie prawo do oceniania wartości człowieka, sprowadzając go do marginalnej roli w państwowej maszynie. Traktuje osoby jako obiekty, które można ocenić, kontrolować i przydzielać do poszczególnych kategorii.

Wraz z godnością związane jest pojęcie wolności w znaczeniu zdolności do świadomego wyboru dobra. Taki wybór potrzebuje jednak wewnętrznej i chronionej przestrzeni, w której każdy może podjąć autonomiczną refleksję i rozstrzygać w sumieniu, co jest słuszne. Masowe nadzorowanie jest bezpośrednim atakiem na taką przestrzeń. Społeczeństwo, w którym czynności i słowa są rejestrowane i oceniane, zabija autentyczność każdego człowieka. Jak możemy uczyć się na własnych błędach, jeżeli każdy z nich jest skrupulatnie zapisywany w cyfrowej przestrzeni? Jak mamy rozwijać odwagę w społeczeństwie, jeżeli strach przed negatywną oceną algorytmu paraliżuje naszą wolność słowa?

W stronę etycznych systemów rozpoznawania

Rozpoznawanie twarzy nie musi być narzędziem strachu, opresji i redukcji człowieka do zestawu danych. Może służyć wspólnemu dobru, ale pod warunkiem, że projektujemy te systemy z odpowiednimi zasadami i z poszanowaniem godności każdej osoby. Oznacza to w praktyce przejrzysty cel działania, realną możliwość wyrażenia zgody, a także minimalizacja danych i ograniczenie ich zasięgu do jasno określonych celów (np. bezpieczeństwo publiczne). Jako inżynierowie, etycy, prawodawcy i obywatele mamy narzędzia, by projektować takie systemy w oparciu o zasady prawne i kulturę chrześcijańską, kulturę poszanowania wolności.

Fundamentem każdego systemu musi być dobrowolna i świadoma zgoda każdego użytkownika. Jest to różnica względem chińskiego systemu, gdzie każdy jest domyślnie rejestrowany w systemie. Poza niektórymi wyjątkami (np. ściganie przestępców), nikt nie ma prawa na korzystanie z naszego wizerunku i dodanie jej do bazy danych bez wcześniejszej zgody.

Tworzenie centralnych baz danych składających się z milionów informacji nie jest najlepszym pomysłem, gdyż stają się one głównym celem ataku hakerów. Zamiast tego powinno się projektować systemy zdecentralizowane. Dane biometryczne należy przechowywać lokalnie, na urządzeniach użytkownika (np. w telefonie), w trudnej do zidentyfikowania formie. Takie rozwiązanie w praktyce oznacza, że serwer nie rozpoznaje naszej twarzy, a jedynie otrzymuje potwierdzenie tożsamości w formie kryptograficznej.

Etyczny system powinien być zaprojektowany tak, aby realizował tylko jeden, ściśle określony cel. System do weryfikacji wieku przy zakupie wina nie musi wiedzieć, kim jesteśmy, ani gdzie mieszkamy. Jego jedynym zadaniem jest odpowiedzenie na pytanie: „Czy dana osoba ma ukończone 18 lat?”. Po udzieleniu odpowiedzi, system powinien od razu zapomnieć o całej operacji.

Ponadto algorytmy, zwłaszcza systemów wykorzystywanych w sektorze publicznym, powinny być czytelne i łatwe do zrozumienia, a także poddane audytowi. Co jednak istotniejsze, każdy człowiek, którego dotyczy decyzja podjęta przez system sztucznej inteligencji, musi mieć zagwarantowane prawo do odwołania się od tej decyzji.

Żadna maszyna czy system nie może być ostateczną instancją w sprawach dotyczących ludzkiego losu.

Przykładem etycznego rozwiązania technologicznego, weryfikującego w pewnym stopniu tożsamość, jest ten zgodny ze wspomnianą już ustawą francuską.

Realizacja systemów, które nie uprzedmiatawiają, ale zapewniają bezpieczeństwo i służą rozwojowi społeczeństwa, to cel możliwy do zrealizowania. Tworzone technologie powinny służyć ludziom, a nie ich zastępować. Muszą być sprawiedliwe, odpowiedzialne i działać na etycznych zasadach. Ostatecznym celem nie jest stworzenie perfekcyjnej maszyny, ale budowanie świata, w którym technologia pomaga nam lepiej dostrzec i uszanować ludzkie oblicze.

 

Bibliografia

D.Donnely, „China Social Credit System Explained – What is it and How Does it Work?” 2024

Y. LeCun, Y. Bengio I G.Hinton, „Deep Learning” 2015

O. Agbo-Ajala, S.Viriri, M. Oloko-Oba i O.Ekundayo, „Apparent age prediction from faces: A survey of modern approaches”, 2022

“Kompendium Nauki Społecznej Kościoła” Kielce, 2005

A. Corvin „France enforces new age verifivation law for adult content sites”, 2025