Sztuczna inteligencja rozwija się niezwykle szybko i wchodzi w kolejne obszary życia. Niezależnie, jak oceniamy ją jako chrześcijanie, nie możemy siedzieć z założonymi rękami i biernie obserwować, bo prędzej czy później albo zaczniemy ją mądrze wykorzystywać, albo staniemy się jej ofiarami.
Niedawna próba stworzenia „wirtualnego duszpasterza”, opartego na technologii sztucznej inteligencji, który miał odpowiadać na pytania dotyczące wiary, okazała się fiaskiem. Odpowiedzi, których ten algorytm udzielał, nie były trafne; postaci brakowało też całkowicie tego, czego oczekiwalibyśmy od duszpasterza: zrozumienia naszych problemów, z którymi zwracamy się do niego, a nie wyrzucania z siebie ogólnikowych, chłodnych wypowiedzi.
Osobiście nie jestem tym zdziwiony. Sztuczna inteligencja, przynajmniej na obecnym poziomie rozwoju, nie ma możliwości „zrozumienia” żadnego zagadnienia w takim sensie, jak rozumie je człowiek. My, mierząc się z jakimś problemem, podchodzimy do tego heurystycznie, niejako intuicyjnie odrzucając natychmiast błędne odpowiedzi, rozumując logicznie, a jednocześnie jesteśmy w stanie pojąć to, co kryje się za pytaniem, pozostając jedynie w domyśle. Sztuczna inteligencja natomiast działa „ilościowo”, nie „jakościowo”. Operuje na olbrzymiej ilości danych (to jest jej przewaga) i udzielając odpowiedzi na zadane jej pytanie generuje ją na zasadzie kompilacji. Owszem, w ten sposób może często udzielić odpowiedzi poprawnej (jeśli dane, na których działa, są poprawne), ale odpowiedź ta zawsze będzie raczej ogólnikowa niż „trafiona w punkt”. Innymi słowy, inteligencja ludzka jest „bystra”, czyli człowiek może „pojąć w punkt”, o co chodzi, sztuczna inteligencja jest natomiast „flegmatyczna”, działa jak nudny urzędnik, który zna na pamięć tysiące przepisów i potrafi je zacytować, gdy potrzeba.
Zjawisko to widać nie tylko w dziedzinie religii. Na wielu forach dyskusyjnych, zajmujących się problemami technicznymi (na przykład – oprogramowaniem czy sprzętem komputerowym) zetknąłem się już z odpowiedziami, które jakiś użytkownik wkleił w oparciu o sztuczną inteligencję. Reakcja pozostałych uczestników forum jest zazwyczaj negatywna: „daruj sobie cytowanie GPT”. Tego rodzaju wpisy dość łatwo odróżnić. Nie wnoszą one zazwyczaj wiele do rozwiązania problemu, a zawierają jedynie ogólnikowe rady. Są „inteligentnym wymądrzaniem się”, a nie dotykają sedna sprawy.
Jeszcze inną dziedziną, w której widać zarówno siłę, jak i słabość SI, są tłumaczenia. Jakość tłumaczeń automatycznych w ostatnich latach poprawiła się w olbrzymim stopniu. Nie są to już tylko przekłady „słownikowe”, które usiłowały zastąpić dane słowo z języka źródłowego słowem docelowym. Takie tłumaczenia były źródłem wielu żartów, bo brzmiały dziecinnie lub po prostu głupio. Język bowiem to nie zestaw słów-koralików nawiniętych na sznurek i nie wystarczy podmienić koralików w jednym kolorze na inny kolor. Obecnie jednak systemy automatycznego tłumaczenia bazują na całych frazach, potrafią też z grubsza zidentyfikować kontekst. Efekt jest zadowalający, zwłaszcza w tekstach „powtarzalnych”, takich jak umowa prawna. Gorzej, gdy automatycznemu tłumaczowi damy do przerobienia tekst literacki, czy poezję. Tu już natychmiast widać brak polotu i trudno się spodziewać, żeby było inaczej. Nie oczekiwałbym, że SI na podstawie tekstu piosenki Cole Portera „Let’s do it” wygeneruje genialne tłumaczenie Stanisława Barańczaka: „Leć w duet”... Trochę dla zabawy spróbowałem ostatnio takiemu tłumaczowi zadać znacznie prostsze zadanie: przełożyć na angielski piosenkę: „płynie Wisła, płynie, po polskiej krainie. Zobaczyła Kraków, pewnie go nie minie”. Tłumaczenie było poprawne, ale z poezji nie zostało nic.
Entuzjastów sztucznej inteligencji jest jednak wielu i przybywa ich z każdym dniem. Trudno, żeby było inaczej. Ułatwia ona życie, nawet jeśli obniża jego jakość, spłycając treści i pozbawiając je autentyzmu. Ci, którzy pozostają na poziomie atrakcyjnych bodźców zewnętrznych, być może tego nie dostrzegą. SI może bowiem generować niezwykle atrakcyjne obrazy i filmy, jak dowodzi tego model Sora, wdrażany obecnie przez OpenAI. Nieprawdziwe, ale miłe dla oczu. W języku angielskim określamy to mianem „eye candy” (słodycze wzrokowe). Z pewnością znajdą swoich amatorów, tak jak każde słodycze. Tylko że, tak jak każde słodycze czy fast food, jest to pokarm pozorny, który na dłuższą metę przynosi katastrofalne skutki. Psują się od tego nie tylko zęby, ale cały nasz organizm zaczyna źle funkcjonować. Nie inaczej będzie ze sztuczną inteligencją, jeśli nie podejdziemy do niej w sposób mądry.
Jak zauważa Jacob Hoekman na niderlandzkim portalu RD:
„Jestem pod wrażeniem tego nowego kamienia milowego, jeśli chodzi o sztuczną inteligencję. Chciałbym móc patrzeć na tego rodzaju zaskakujące osiągnięcia technologiczne w pozytywny sposób, ale czy mogę? Tak wiele przejmujących opowieści historii powstało już o technologii przejmującej rolę człowieka. Mówią o świecie, w którym «my», ludzkość, będziemy musieli zmierzyć się z superpotężnymi, ale bezosobowymi (a może nawet antyosobowymi?) i niereligijnymi (a może nawet antyreligijnymi?) cyfrowymi «nimi»?”
To, co kiedyś było wyłącznie w sferze science fiction, dziś staje się rzeczywistością. Jako chrześcijanie nie możemy przespać tego momentu. Nie wystarczą same ostrzeżenia, może się bowiem okazać, że – podobnie jak ze smartfonami – chrześcijanie będą z tego masowo korzystać, pomimo wszelkich przestróg i to korzystać bezkrytycznie. Pułapka, w jaką wpadliśmy w przypadku smartfonów, pożerających nasz czas i niszczących bliskie relacje międzyludzkie, jest niczym wobec pułapki, jaką potencjalnie jest SI.
Na problemy sztucznej inteligencji zwraca uwagę Emmanuel Rutten, filozof z Wolnego Uniwersytetu w Amsterdamie. W swym przenikliwym artykule na temat ChatGPT dowodzi, że uzależnienie od tego programu ostatecznie oznacza regres w rozwoju ludzkości. ChatGPT, podobnie jak Sora, nie może być naprawdę kreatywny.
„Ludzki umysł może tworzyć połączenia między pozornie zupełnie niepowiązanymi danymi, aby wyjść ponad to, co już znane i stworzyć nowe pomysły, które wcześniej nie istniały. ChatGPT tego nie potrafi. Może jedynie tworzyć kompozycje tego, co już pomyśleliśmy.”
Innymi słowy, nadmierne poleganie na sztucznej inteligencji stoi na przeszkodzie nowym Einsteinom, Salvadorom Dali i Albertom Schweizerom tego świata, którzy rzeczywiście mogliby wykreować całkiem nowe spojrzenie na naukę, sztukę czy medycynę.
To nie jedyne zagrożenie. Równie wielkim, a może i większym jest nieumiejętność rozróżnienia rzeczywistości od „sztucznej rzeczywistości” kreowanej przez SI. Dopóki jesteśmy świadomi, że rozmawiamy z automatem, posługujemy się automatem czy też generujemy treści korzystając z automatu, możemy w pewnym momencie powiedzieć „stop”, to nieprawda, nie zgadzam się, przerwać połączenie czy wyłączyć program. Co jednak, gdy granica się zatrze i nie będziemy wiedzieć, czy po drugiej stronie ekranu jest żywy człowiek, czy tylko algorytm?
Pozostaje też kwestia relacji międzyludzkich. Już teraz istnieje spora grupa osób korzystających ze sztucznej inteligencji jako rozwiązania ich problemu samotności. To jednak rozwiązanie całkowicie fałszywe. Tak jak guma do żucia nas nie nakarmi, tak też SI nie zastąpi nam kontaktu z żywym człowiekiem.
Amerykański chrześcijanin i filozof Jordan Joseph Wales wskazuje na wyjątkowość człowieczeństwa: istota ludzka jest zdolna do dawania siebie, dzielenia się swoim wnętrzem. Dając siebie innym, możemy przede wszystkim odzwierciedlać Boga, który dał siebie światu. Społeczny robot AI nie może tego zrobić – nie ma wewnętrznego ja, nie ma w sobie miłości, nie może przyjmować ani dawać siebie.
***
Chrześcijanie nie mogą zignorować sztucznej inteligencji. Teraz jest moment, aby uświadomić sobie jej siły i słabości i podjąć stosowne decyzje. Pewne rzeczy, takie jak zacieranie granic między rzeczywistością prawdziwą a wirtualną, powinny być odrzucone, a wręcz zakazane. To, że istnieją substancje halucynogenne, nie oznacza, że powinny być dostępne w powszechnej sprzedaży. Podobnie to, że SI jest w stanie wygenerować sztuczną rzeczywistość, która nie daje się odróżnić od prawdziwej, nie znaczy, że powinna to robić, generując fake news, fake images i fake videos.
Teolog Maaike Harmsen napisała książkę „Dzięki Bogu za technologię” (2022) i jedną z kwestii, które w niej podnosi, jest właśnie to, jak ważne jest, aby teologia i technologia rozmawiały ze sobą. Jeśli tego nie zrobimy, ryzykujemy, że współczesny pogląd na człowieka stanie się coraz bardziej techniczny. Że istota ludzka jest postrzegana jako rodzaj komputera, który również zawodzi; który robi mniej niż sztuczna inteligencja. W takim ujęciu człowieka, im mniej inteligentny jest ktoś, tym mniejsza jest jego wartość. Harmsen słusznie podkreśla, że wszyscy ludzie są nosicielami obrazu Boga, niezależnie od ich poziomu inteligencji. Nie wynośmy inteligencji na zbyt wysoki piedestał, bo jej absolutyzacja jest po prostu fałszem, prowadzącym do dehumanizacji.
***
Jesteśmy przez Boga powołani do tego, aby „czynić sobie ziemię poddaną”. Sztuczna inteligencja nie jest czymś „z kosmosu”, ale jak najbardziej „z ziemi”. My ją stworzyliśmy i jesteśmy za nią odpowiedzialni, tak jak za każdą inną sferę życia na ziemi. Jeśli nie zadbamy o to, aby zapanować nad tym tworem naszego umysłu, on zapanuje nad nami. A to ostatnia rzecz, jakiej byśmy chcieli...