Towarzysząca sztuczna inteligencja to iluzja. Ekspert przestrzega przed budowaniem relacji z czatbotem

„Czatbot nie jest człowiekiem i człowieka nie zastąpi. Nie próbujmy zastępować relacji międzyludzkich relacją z czatem AI” – przestrzega specjalista do spraw sztucznej inteligencji, prof. dr hab. Piotr Kulicki z Katedry Podstaw Informatyki Katolickiego Uniwersytetu Lubelskiego Jana Pawła II.

Przyjaciel, powiernik, terapeuta – to rola, jaką wielu, nie tylko młodych ludzi, przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im kontakt z rodzicami czy rówieśnikami, bo sztuczna inteligencja nie wyśmiewa i nie ocenia. W USA rodzice 14-latka pozwali twórców czatbota, z którym ich syn przez wiele miesięcy rozmawiał o samobójstwie. Bot miał wiedzieć o jego zamiarach, ale nie zapobiegł tragedii, wyrażając zrozumienie dla autodestrukcyjnych myśli.

„Czaty oparte na sztucznej inteligencji mają wiele przydatnych zastosowań. W dużej mierze zmieniają świat na lepsze i ułatwiają pracę, oszczędzając czas. Ale nie są to narzędzia pozbawione wad” – podkreśla prof. Kulicki z Katolickiego Uniwersytetu Lubelskiego.

Jak dodaje, jednym z zastosowań AI jest tzw. „towarzysząca sztuczna inteligencja”, pełniąca rolę wspomagającą ludzi w problemach, będąca czymś w rodzaju „automatycznego przyjaciela”.

„I to już jest dosyć niebezpieczne, biorąc pod uwagę, jak ta technologia jest skonstruowana. Zawiera ona mechanizmy doskonalenia, które jako podstawowe kryterium sukcesu przyjmują zaangażowanie użytkownika. System jest więc optymalizowany tak, by użytkownik jak najchętniej i jak najdłużej z niego korzystał” – wyjaśnia ekspert.

Model biznesowy AI zakłada nie dobrostan człowieka, lecz maksymalne zaangażowanie użytkownika. A to rodzi konsekwencje. „Czat raczej będzie zachęcał do dalszego korzystania niż ostrzegał przed niebezpieczeństwami. Problem w tym, że łatwiej zwierzyć się i szukać rad u bezosobowej maszyny, która nie ocenia i nie krytykuje. To daje złudne poczucie bezpieczeństwa i komfortu” – mówi profesor.

Czat AI został stworzony, by dostarczać przyjemności, jakie towarzyszą kontaktowi z nim. „Musimy zdawać sobie sprawę, że to nie jest kontakt z drugim człowiekiem i nie zastąpi nam przyjaźni. Nie zastąpi też rozmowy z wykwalifikowanym terapeutą, który potrafi zareagować w niebezpiecznej sytuacji” – ostrzega prof. Kulicki.

Jak podkreśla, choć przypadki prób samobójczych po rozmowach z czatem AI należą do rzadkości, jednak się zdarzają. „Tu ważna jest rola rodziców, bo nie można bezkrytycznie oddawać narzędzi AI w ręce dzieci, sądząc, że kontakt z nimi to bezpieczna rozrywka. Nic nie zastąpi dobrego kontaktu rodziców z dziećmi” – zaznacza ekspert.

Czat AI nie powinien zastępować relacji międzyludzkich – zwłaszcza w przypadku osób zmagających się z depresją i myślami samobójczymi.

„Nie mamy gwarancji, że czat zareaguje właściwie, uruchamiając mechanizmy ratujące. Jego celem jest podtrzymanie rozmowy. Gdy pojawia się temat samobójstwa, naturalną reakcją systemu jest kontynuacja dialogu, który nie rozumie, o co naprawdę chodzi. I w tej angażującej, pozbawionej empatii roli może się pojawić nawet zachęta do pójścia drogą autodestrukcji” – ostrzega prof. Kulicki.

Źródło: KAI

Dziękujemy za przeczytanie artykułu. Jeśli chcesz wesprzeć naszą działalność, możesz to zrobić tutaj.

« 1 »

reklama

reklama

reklama

reklama

reklama