Dostęp do takiej czy innej wersji GPT ma dziś każdy. Zamiast udawać, że czaty AI nie istnieją, lepiej w edukacji z nimi współdziałać. Ten symbiotyczny cel przyświeca niniejszemu artykułowi. Został on we wskazanym miejscu przygotowany i napisany przez sztuczną inteligencję. Prowadzony przeze mnie krok po kroku ChatGPT-4 najpierw znalazł odpowiednie źródła, następnie wyszukiwał w nich interesujące mnie informacje, pisał fragmenty artykułu o wskazanej tematyce i poprawiał je według wskazówek. Na każdym kroku wymagało to mojej inwazyjnej redakcji. Oddaję teraz głos szanownemu koledze czatowi, by na koniec skomentować uzyskane efekty.
ChatGPT o edukacji w dobie AI
Opisując problem zależności AI i edukacji, warto zacząć od dokumentu „Guidance for generative AI in education and research” opublikowanego przez Organizację ONZ ds. Oświaty, Nauki i Kultury (UNESCO) w 2023 roku. Jego głównym celem jest wspieranie krajów w implementacji natychmiastowych działań, długoterminowych polityk oraz rozwijaniu ludzkich zdolności, aby zapewnić antropocentryczną wizję nowych technologii, w szczególności sztucznej inteligencji generatywnej (GenAI), w edukacji. Dokument został stworzony pod kierownictwem Stefania Giannini, Asystenta Dyrektora Generalnego UNESCO ds. Edukacji, z głównym wkładem Fengchun Miao, szefa jednostki ds. Technologii i AI w Edukacji, oraz Wayne’a Holmesa, profesora na University College of London.
Dokument opisuje wiele kontrowersji i problemów związanych z czatami AI. Jeden z nich to bycie „stochastycznymi papugami”. Mimo, iż mogą one generować teksty, które wydają się przekonujące, często zawierają one błędy i mogą zawierać wprowadzające w błąd stwierdzenia. Wynika to z faktu, że modele GPT jedynie powtarzają wzorce językowe znalezione w danych, na których były trenowane, bez rozumienia ich znaczenia, podobnie jak papuga może naśladować dźwięki bez ich zrozumienia. Ten rozdźwięk między pozornym rozumieniem tekstu przez modele GenAI a rzeczywistością, że tak naprawdę go nie rozumieją, może prowadzić do nadmiernego zaufania nauczycieli i uczniów do generowanych wyników, co stanowi poważne ryzyko dla przyszłej edukacji.
Autorytatywny wygląd tekstu generowanego przez AI może wprowadzać w błąd młodych uczniów, którzy nie mają wystarczającej wiedzy wstępnej, aby rozpoznać nieścisłości lub skutecznie kwestionować te treści.
Między innymi dlatego prof. Percy Liang w artykule dla Stanford HAI, instytutu mającego na celu „budowanie przyszłości AI z ludzkim obliczem”, wskazuje, że AI może służyć jako narzędzie wspierające, umożliwiając uczniom głębsze zaangażowanie poprzez analizę materiałów, zamiast wykonywania całej pracy za nich. W ten sposób, AI staje się narzędziem, które podnosi poprzeczkę dla uczniów, wymagając od nich bardziej kreatywnego i ambitnego podejścia do nauki.
Skupienie się na zagregowanych informacjach z drugiej ręki może ograniczać możliwości uczniów do budowania wiedzy poprzez sprawdzone metody, takie jak bezpośrednie doświadczanie rzeczywistości, uczenie się metodą prób i błędów, wykonywanie eksperymentów empirycznych oraz rozwijanie zdrowego rozsądku. Dobrym pomysłem może być więc zlecanie uczniom pisania jak najlepszych esejów z użyciem AI, by następnie napisali je samodzielnie, lub jedynie z pomocą inteligentnego czatu. Podobnie w zadaniach matematycznych i logicznych – AI powinno tutaj wspierać kształcenie zdolności rozumowania, a nie ją zastępować.
Profesor Robert Reich z uniwersytetu Stanford (politolog zajmujący się etyką w odniesieniu do technologii) podkreśla, że pisanie jest sposobem na naukę myślenia. Istnieje więc obawa, że poleganie uczniów na AI do wykonywania zadań wymagających myślenia krytycznego, jak pisanie czy analiza, może hamować rozwój ich umiejętności krytycznej oceny, argumentacji i niezależnego rozumowania.
Reich używa również porównania AI do kalkulatora. Wskazuje na to, że choć kalkulatory stały się wszechobecne w średnich i wyższych klasach szkolnych, nie spowodowały one usunięcia podstawowych umiejętności matematycznych z programu nauczania. Podobnie, integracja AI w edukacji wymaga zrównoważonego podejścia, które zachowa kluczowe aspekty uczenia się niezbędne do rozwoju umiejętności krytycznego myślenia.
Powyższe intuicje potwierdza prof. Chris Dede z Harvardu, dyrektor National AI Institute for Adult Learning and Online Education, wskazując na możliwość uzupełniania ludzkiej inteligencji przez sztuczną inteligencję. Zamiast z nią konkurować, należy dostosować programy nauczania tak, by współpracować z AI. Należy kształcić uczniów do tego, czego AI nie potrafi robić. To synergia między człowiekiem i AI.
Komentarz ludzki
Gdy zleci się czatowi zadanie napisania eseju (może to być na przykład Copilot – czat AI Microsoftu, oparty o silnik GPT4), napisze “on” krótką rozprawkę na poziomie szkoły podstawowej, popisując się banalnymi stwierdzeniami. Jeśli poprosi się czat najpierw o stworzenie spisu treści pracy w jakimś temacie, a następnie wyśle się osobne zapytania do kolejnych rozdziałów, czat na odmianę napisze dłuższy artykuł, w którym każdy rozdział jest zbiorem ogólników parafrazujących rozdziały poprzednie.
Z tych powodów napisanie przez ChatGPT powyższego krótkiego artykułu było dla mnie nie mniejszym wysiłkiem niż zrobienie tego bez jego pomocy. Na każdym kroku musiałem weryfikować i poprawiać uzyskane odpowiedzi.
ChatGPT (nawet ten w płatnej wersji GPT4 wykorzystanej powyżej) działa podobnie do czatu Copilot, choć ma większe możliwości. Jeśli poprosi się go o „akademickie źródła” w jakimś temacie, czasami podaje całkiem sensowne linki. Można skopiować treść kryjących się pod nimi artykułów i zlecić czatowi wypisanie najważniejszych wątków. Radzi sobie z tym naprawdę dobrze. Podobnie jest z dokonywaniem krótkiego streszczenia przesłanego tekstu (w przypadku płatnego ChatGPT–4 może to być nawet kilkudziesięciostronicowy dokument). Z analizą treści pod przesłanymi linkami Copilot i ChatGPT–4 radzą sobie raz lepiej, raz gorzej. Podstawowa wersja ChatGPT-3.5 w ogóle nie ma dostępu do internetu.
Naturalnie problemem jest to, że nigdy nie ma się pewności, skąd czat bierze informacje („stochastyczna papuga”), które następnie przekazuje użytkownikowi. Jeśli podaje się mu konkretny tekst, na którym ma się opierać, to rzeczywiście zaobserwować można, że w głównej mierze na nim bazuje. Zdarza się jednak dość często, że dokłada coś „od siebie”. AI może produkować koherentne teksty, które są jednak całkowicie błędne. Zadanie weryfikacji zgodności ze źródłami jest więc pozostawione człowiekowi. Można zlecić czatowi robienie przypisów, ale w praktyce nie odnosi się on wprost do wskazanych fragmentów tekstów źródłowych.
Używałem nowych okienek ChatGPT-4 do zlecania zadań, które nie wymagają posiadania przez niego w pamięci uprzednio wysłanych wiadomości. Nawet jeśli jakieś zapytanie dotyczyło tego samego fragmentu tekstu, wysyłałem je w nowym czacie. Osiągałem w ten sposób lepsze efekty.
ChatGPT-4 często się powtarza. To mistrz parafrazy. Trzeba stale mieć to na uwadze i poprawiać to, co pojawia się w wygenerowanym tekście. Można go też poprosić, by starał się nie popełniać tego błędu, ale efekty są marne.
Ocena AI-pracownika
Finalnie czat okazał się jedynie w niewielkim stopniu pomóc w napisaniu tego artykułu. Ogólne zapytania skutkują również bardzo ogólnikowymi, banalnymi odpowiedziami i wielokrotnym powtarzaniem tych samych informacji. Prośba o wyszukanie źródeł niewiele różni się od samodzielnego wpisania w Google frazy i wybrania kilku linków z góry strony. Nawet analiza źródeł (na przykład pod kątem najistotniejszych wątków) zajmuje podobną ilość czasu, gdy jest dokonywana samodzielnie (jeśli tylko wykorzystywane artykuły są właściwie ustrukturyzowane). Natomiast podanie czatowi konkretnego tekstu, na podstawie którego ma napisać jakiś fragment eseju, wymaga poprawek, które finalnie mogą zająć tyle czasu, ile samodzielne napisanie tego fragmentu od zera.
Jako że generatywna sztuczna inteligencja jest mistrzem operacji logiczno-matematycznych, oczywistym jest, że wyróżnioną dziedziną należącą do jej kompetencji jest ta programistyczna. To skarb w ręku laika, który chce napisać program na platformę Arduino w zastosowaniach smart home, zbudować prostą stronę internetową opartą na własnym kodzie źródłowym albo napisać skrypt, który dzięki jednemu kliknięciu pozwoli na uporządkowanie plików. Ba, ChatGPT jest również wielką pomocą dla początkującego programisty (np. na stanowisku juniora w korporacji). Jednak w dużych projektach czy na poziomie wykraczającym poza „klepanie kodu”, albo przy mniej standardowych problemach, póki co możliwości AI są wciąż zbyt małe.
Nieszczęsne książki, druk, a teraz AI
Sokrates w „Fajdrosie” przedstawił dialog pomiędzy egipskim bogiem Teutem i królem Tamuzem. W dialogu tym książki są przez boga określone jako „lekarstwo na pamięć i mądrość” (tłum W. Witwicki). Król Tamuz jest zdania przeciwnego, mówiąc, że:
„Ten wynalazek niepamięć w duszach ludzkich posieje, bo człowiek, który się tego wyuczy, przestanie ćwiczyć pamięć; zaufa pismu i będzie sobie przypominał wszystko z zewnątrz […], a nie z własnego wnętrza, z siebie samego […]. Uczniom swoim dasz tylko pozór mądrości, a nie mądrość prawdziwą. Posiądą bowiem wielkie oczytanie bez nauki i będzie się im zdawało, że wiele umieją, a po większej części nie będą umieli nic […]. To będą mędrcy z pozoru, a nie ludzie mądrzy naprawdę”.
Zapewne podobne wątpliwości towarzyszyły upowszechnianiu się w Europie druku w XV wieku za sprawą Jana Gutenberga. Dziś również ich nie brakuje w odniesieniu do GenAI. Może słusznie, lecz to od nas zależy, na ile czaty AI staną się użytecznym narzędziem, a na ile substytutem dla naszego wysiłku myślenia.