Sztuczna inteligencja – czy roboty mogą zastąpić człowieka?

Czy roboty mogą posiadać samoświadomość i emocje? Czy zostaną im przyznane specjalne prawa? Czy mają zdolność manipulacji ludźmi? Czy można sztuczną inteligencję wykorzystać np. w medycynie? W rozmowie z KAI opowiada o tym Andrzej Mleczko związany z branżą IT.

Dawid Gospodarek (KAI): Czym jest sztuczna inteligencja?

Andrzej Mleczko: To jest wbrew pozorom bardzo trudne pytanie. Z jednej strony mamy pewne rozumienie sztucznej inteligencji w potocznym języku, w popkulturze, szczególnie w ostatnich 20–30 latach w literaturze science fiction, czy w filmach, gdzie w różnych formach ten temat się pojawia. Jednak da się chyba dostrzec zgodność badaczy i naukowców wskazujących, żeby podejść do tego tematu bardzo szeroko – czyli jesteśmy w stanie pod pojęciem sztucznej inteligencji zakwalifikować w sumie wszystko to, co jest związane z inteligencją nienaturalną. Jeśli więc mówimy o sztucznej inteligencji, mówimy o inteligencji maszyn. Samo pojęcie pojawiło się w połowie ubiegłego wieku, więc jest dosyć nowe. Na potrzeby naszej rozmowy tę definicję rozumiałbym bardzo szeroko.

A co można powiedzieć o relacji między tą sztuczną inteligencją a świadomością, samoświadomością?

Szybko przechodzimy do bardzo trudnego zagadnienia. Samo pojęcie świadomości trochę wykracza poza moją dziedzinę nauki, moją praktykę. Świadomość jest trudna do zdefiniowania. Dziś zajmuje się tym wielu badaczy, dużo eksperymentów koncentruje się na samej świadomości. Warto też zaznaczyć różnicę między inteligencją a świadomością. Raczej jesteśmy w stanie się zgodzić, że współczesne komputery i wszystkie współczesne systemy sztucznej inteligencji od wielu lat mają przewagę nad ludzkim umysłem, ale mają one jedną podstawową przewagę, mianowicie pojemność pamięci i szybkość liczenia. Tutaj z komputerami nie dajemy sobie rady, są od nas szybsze. Natomiast nie ma na to żadnych dowodów, żeby sama kwestia liczenia i olbrzymiej pamięci dawała tym maszynom zdolność do samoświadomości. Nie jesteśmy tego tak naprawdę w stanie dobrze zdefiniować.

Jednak co jakiś czas słyszy się o jakichś robotach, które „myślą”…

To prawda. Np. kilka lat temu pojawiła się sensacyjna wiadomość, że pewnemu profesorowi, ekspertowi od sztucznej inteligencji, udało się stworzyć algorytm, który potwierdził, że robot uzyskał samoświadomość. Były trzy roboty. Powiedział im, że wszystkie dostały po jednej pigułce, która miała dwie potencjalne możliwości działania: albo wyłączała mowę, albo po prostu nic nie robiła. Dwa roboty po prostu wyłączył, one nie brały udziału w tej całej zabawie, natomiast trzeci robot nie dostał oczywiście żadnej pigułki, bo taka pigułka nawet nie istniała. Chodziło o to, żeby uzyskać od niego odpowiedź. Po kilku sekundach zastanawiania się, robot powiedział, że nie wie, jaka jest odpowiedź. Następnie słysząc swój głos, powiedział, że jednak wie. Powiedział, że skoro nie został uciszony, skoro może mówić, to wie, jaką pigułkę dostał. Oczywiście media ten temat rozchwytywały, że sztuczna inteligencja osiągnęła poziom samoświadomości, że robot jest w stanie sam stwierdzić, że coś usłyszał. To jest bardzo prosty przykład, i oczywiście w tym momencie, w tym pewnym bardzo ograniczonym stopniu możemy powiedzieć, że ten robot faktycznie ten test samoświadomości zdał, natomiast w już bardziej skomplikowanych scenariuszach, które są najczęściej wykorzystywane jako test na samoświadomość, np. rozpoznanie własnej twarzy – jest to problem zupełnie poza zasięgiem tego typu maszyn.

A takie maszyny mogą mieć emocje?

Kwestia emocji jest również trudnym tematem. Nie znam skutecznej próby samoświadomego definiowania swoich własnych emocji przez maszynę, czy tego, żeby komputer próbował sam jakoś określić, w jaki sposób się w tej chwili czuję. Jest to bardziej kwestia analizy mimiki twarzy albo analizy samej rozmowy, np. zabarwienia emocjonalnego słów. To komputer jest w stanie zrobić, uczenie maszynowe jest w stanie bardzo precyzyjnie to rozpoznać, ale znowu jest to tylko i wyłącznie moc obliczeniowa, nie ma żadnej samoświadomości. Poruszamy się w obszarze mocy obliczeniowej i pamięci, a nie po stronie świadomości maszyny. To jest też obszar, który jest w tej chwili niezagospodarowany, nikt jeszcze takiej emocjonalnej maszyny nie skonstruował.

Czy widzi Pan taką możliwość, wiedząc, że niektórzy dążą np. do przyznania praw zwierzętom, aby powstała poważna dyskusja o prawach dla robotów?

Chyba znowu jesteśmy na przy pytaniu, czy maszyna będzie miała kiedykolwiek samoświadomość. Dopóki tej samoświadomości nie osiągnie, wydaje mi się, że nie powinno być w ogóle mowy o przyznawaniu praw, tylko dlatego że jakaś maszyna jest inteligentna. W bardzo uproszczony sposób kalkulator też jest inteligentny, bo potrafi odpowiedzieć na zadane mu pytanie. A chyba zgodzilibyśmy się wszyscy, że kalkulator nie powinien otrzymywać jakichś specyficznych, dodatkowych praw. Oczywiście wiadomo, że te systemy sztucznej inteligencji są o wiele bardziej skomplikowane, natomiast wydaje mi się, że są cały czas tylko i wyłącznie systemami o bardzo dużej mocy obliczeniowej i bardzo dużej pamięci, natomiast nie posiadającymi samoświadomości. Dopóki takie systemy posiadające samoświadomość nie powstaną, to jest temat bardzo odległy. Według mnie, nie ma szans w ogóle, żeby mówić o jakichś dodatkowych prawach dla robotów w niedalekiej przyszłości.

Dziś takie roboty, maszyny, traktuje się raczej jako narzędzia. A skoro wiemy, że one mają przerastające nasze możliwości obliczeniowe i wiemy, jak jest skonstruowany ludzki umysł, ludzkie postrzeganie świata i potrafimy opisać np. mechanizmy wchodzenia w nałogi, czy jest możliwość zaprogramowania takiej sztucznej inteligencji do tego, żeby nas np. uzależniła od korzystania z siebie? Tak jak robią to np. twórcy aplikacji społecznościowych, którzy znając nasze zachowania i przyzwyczajenia, mogą na nie wpływać, dopasowywać reklamy itd.?

Tak, zdecydowanie tak. Jest to możliwe, wydaje mi się, że to jest już na pewno testowane i może nawet wykorzystywane. Nie ma chyba jednak jednoznacznych dowodów na to, że tego typu systemy faktycznie skutecznie działają, natomiast to leży w zasięgu obecnych możliwości technologicznych. Tylko to będą systemy uczące się, które są w stanie na podstawie bardzo dużych ilości danych o nas, o naszych zachowaniach, przyzwyczajeniach, danych, które sami oczywiście zostawiamy korzystając z Internetu i różnych urządzeń. Na tej podstawie są w stanie nauczyć się, w jaki sposób daną treść nam dostarczać, żeby ona nas bardziej angażowała. Oczywiście to też jest zależne od celu, jaki temu systemowi zostanie postawiony przez jego twórcę. Bo jeżeli tym celem będzie np. uzależnienie czasowe, czyli żebyśmy jak najwięcej czasu spędzali na danej aktywności, to z tym już mamy do czynienia. Proszę spojrzeć na algorytmy YouTube, które podpowiadają nam takie treści, na które najbardziej jesteśmy skłonni wejść i poświęcić jak najwięcej czasu. Nie tyle, żeby wejść i kliknąć, tylko wejść i jak najdłużej zostać. To się już dzieje i pewnie większość z nas tego doświadczyła.

Ostatnio miałem wizytę u lekarza. Z racji pandemicznych okoliczności, była to wizyta telefoniczna. Zdiagnozował mnie w 3 minuty prostymi pytaniami, wystawił receptę. Pomyślałem wtedy, czy nie dałoby się go zastąpić jakąś dobrze zaprogramowaną automatyczną sekretarką, która do prawdziwego lekarza odesłałaby dopiero, gdy np. problem będzie się wymykał z jej możliwości…

Tak, oczywiście, że to byłoby możliwe. W ogóle diagnostyka jest ciekawa pod tym względem. Istnieje podział osiągnięć sztucznej inteligencji w zależności od tego jak sobie radzi w porównaniu do ludzkiego umysłu. Dzieli się je na takie, w których sztuczna inteligencja jest o wiele skuteczniejsza od człowieka, takie, gdzie jest mniej więcej na poziomie człowieka oraz na takie, które są jeszcze dla sztucznej inteligencji nieosiągalne. Na tym nieosiągalnym poziomie jest w tej chwili np. tłumaczenie literackie. W tej chwili maszyna nie jest w stanie tak przetłumaczyć tekstu z języka angielskiego na polski, np. Simona Becketta, żeby było to ocenione przez tłumaczy jako profesjonalne i bardzo dobre. To jest poziom nieosiągalny. Natomiast ten poziom, gdzie za każdym razem jest lepsza od człowieka, to np. granie w kółko i krzyżyk, rozwiązywanie kostki Rubika etc. Diagnostyka, o której pan mówi, jest praktycznie w tej chwili na poziomie nadludzkim, tzn. maszyna za każdym razem o wiele lepiej jest w stanie diagnostykę przeprowadzić. Nawet były niedawno przeprowadzone badania, w których stwierdzono, że w przypadku diagnostyki czerniaka, sieci neuronowe, które były odpowiednio zaprogramowane na podstawie bardzo wielu danych, były w stanie z większą skutecznością, patrząc na konkretne zdjęcia, tego czerniaka zdiagnozować – czy te zmiany na skórze to są zmiany rakotwórcze, czy zupełnie naturalne. Były lepsze od lekarzy za każdym razem.

Czym jeszcze nas może zaskoczyć sztuczna inteligencja?

Wydaje mi się, że jest kilka takich paradoksów związanych ze sztuczną inteligencją, z których sobie czasami nie zdajemy sprawy. Podział pomiędzy sztuczną inteligencją a samoświadomością, to od czego zaczęliśmy rozmowę, jest bardzo istotne, trzeba zdać sobie z tego sprawę, ale też nie czuć jakiegoś dużego zagrożenia, bo nawet bardzo zaawansowane systemy, które nazywamy sztuczną inteligencją, są tylko bardzo inteligentnymi systemami, które potrafią przetwarzać duże ilości danych. To jest oczywiście w jakimś stopniu zagadnienie dla etyków, np. kwestia, którą przed chwilą poruszyliśmy, czyli np. problem manipulacji, podejmowania decyzji za nas, dzięki ilości danych, które komputer w bardzo krótkim czasie może przetworzyć, w przeciwieństwie do człowieka, który tego nie potrafi.

Natomiast jest też dosyć znany w sztucznej inteligencji paradoks, który też jest dosyć istotny i warto o nim wiedzieć – paradoks Moraveca, opisany w latach 80. Polega na tym, że wbrew tradycyjnym przeświadczeniom, takie najbardziej skomplikowane, wysokopoziomowe rozumowanie wymaga niewielkiej mocy obliczeniowej. Te wszystkie trudne operacje, o których mówimy – obliczenia ekonomiczne, matematycznie itd. – wymagają niewielkiej mocy obliczeniowej. Natomiast różne niskopoziomowe zdolności i percepcje, czyli np. rozpoznawanie twarzy, poruszanie się, wszystkie kwestie zmysłowe, o których my jako ludzie praktycznie nie myślimy, bo to są rzeczy, które w ogóle nas czasowo nie obciążają, my robimy je bardzo często bez świadomości, że je wykonujemy – one wymagają olbrzymiej mocy obliczeniowej. I to jest oczywiście paradoks, bo wydaje nam się, że dlaczego miałoby być trudne rozpoznanie ołówka? Każde czteroletnie dziecko jest w stanie rozpoznać ołówek, długopis, gumkę. Dla komputera są to rzeczy, które dopiero od kilku lat z niewielką skutecznością jest wstanie zrobić, a kwestia rozpoznawania głosu, mowy, to jest rzecz bardzo skomplikowana. To też daje nam pewien wentyl bezpieczeństwa. To są też dla nas najbardziej ludzkie rzeczy, wszystkie na poziomie czterolatka, który się zachowuje jak człowiek przez to, że potrafi tę podstawową percepcję realizować. Komputery i maszyny wciąż nie są jeszcze na tym etapie. To wymaga bardzo wielu skomplikowanych operacji.

Czyli wizje prezentowane w filmach science fiction, walczące z ludźmi roboty, nie są wciąż realne.

Nie należy się bać rozwoju systemów informatycznych i rozwoju sztucznej inteligencji w tym znaczeniu, że zastąpi ona całościowo człowieka. Z prostego, prozaicznego powodu, koncentruje się ona na sprawach, które są dla ludzi najtrudniejsze, bo w tych obszarach sztuczna inteligencja jest w stanie najszybciej pokazać swoją skuteczność. Warto sobie z tego zdawać sprawę, bo nie jest to tak, że ona wchodzi w każdą dziedzinę naszego życia. Oczywiście, jest dostępna w wielu miejscach, ale nie jest w stanie w tej chwili zastąpić wszystkiego. Lęk jest całkiem naturalny, może się niekiedy budzić – że sztuczna inteligencja i nowoczesne systemy zastąpią wszystko. Być może w bardzo dalekiej przyszłości tak się stanie, ale w tej chwili spałbym raczej spokojnie.

***

Andrzej Mleczko – od ponad 20 lat związany z branżą IT. Współpracował z administracją publiczną we Włoszech i w Polsce oraz z firmami notowanymi na giełdach w Mediolanie, Nowym Jorku i Warszawie. Mieszka pod Poznaniem.

Dawid Gospodarek / Warszawa / KAI


« 1 »

reklama

reklama

reklama