Sztuczna inteligencja rozbawi cię do łez. Polscy badacze wiedzą, jak to zrobić

Ludzie nie są identyczni, jeśli chodzi o ich wrażliwość na treści. Różne treści ich oburzają, smucą, rozśmieszają. Polski zespół pokazuje, jak nauczyć sztuczną inteligencję (SI) wrażliwości konkretnego użytkownika.

Zespół z Politechniki Wrocławskiej (PWr) prowadzi pionierskie badania nad zastosowaniem głębokich modeli językowych do oceny zadań subiektywnych. Wyniki publikowane były w czasopismach Information Fusion, Information Processing & Management oraz omawiane na konferencji ICDM.

Kto kiedyś prosił asystenta Google o opowiedzenie żartu, wie, że żarty te zamiast sprawiać, że śmiejemy się do łez, wywołują częściej jedynie uśmieszek. A to dlatego, że sztuczna inteligencja uznaje na razie za śmieszne to, co za śmieszne może uznać większość osób, a nie konkretny użytkownik. A do rozpuku śmiejemy się raczej, gdy coś specyficznie nas zaskoczy i trafi w nasz gust. Ten zaś wcale nie musi pokrywać się z gustem większości.

W przetwarzaniu języka naturalnego na ogół ważne było dotąd uczenie algorytmów pewnych ogólnych, dających się obiektywnie stwierdzić zasad. Tak jest chociażby w przypadku znaczenia słów, poprawności językowej, rozpoznawania pisma odręcznego, rozpoznawania języka tekstu.

Przyjęło się więc, że aby nauczyć algorytmy tych obiektywnych reguł, trzeba dostarczyć spójnych danych. Np. daje się jakieś zadanie językowe do wykonania wielu ludziom (tzw. anotatorom) i odpowiedź, którą większość z nich oceniła jako prawdziwą - przekazuje do nauki algorytmom. Zadania, w których jest spora rozbieżność zdań, na ogół są na wstępie odrzucane i nie służą algorytmom do nauki.

Są jednak zjawiska językowe, których ocena co do zasady nie jest obiektywna. To choćby zjawiska związane z emocjami. Czy dany tekst cię śmieszy? Czy oburza? Jakie budzi emocje? Różne osoby mogą na to samo pytanie odpowiedzieć zupełnie inaczej. I każdy z nich będzie miał rację. Wcale nie jest przecież tak, że jeden rodzaj wrażliwości jako jedyny jest słuszny, a resztę należy ignorować. To, co rozśmiesza do łez jedną osobę, inną może oburzyć, a jeszcze inną zasmuci. Co więc powinny sądzić o tych treściach algorytmy, skoro ludzie nie są zgodni co do ich oceny?

Zdaniem dr. Jana Koconia z Politechniki Wrocławskiej powinniśmy wiedzieć, jak nauczyć algorytmy, że dany użytkownik nie życzy sobie takich a takich treści, jakieś inne treści uważa za szczególnie zabawne, a inne wywołują w nim smutek.

„Kiedyś zwrócili się do mnie studenci, którzy chcieli opracować filtr do rozpoznawania mowy nienawiści. Jednak nie ma uniwersalnej definicji, co to jest mowa nienawiści. Każdego z nas obrażają nieco inne treści. Nawet jeśli wiemy, jak odsiewać treści niewątpliwie niezgodne z prawem i opracujemy globalny filtr, to i tak znajdą się osoby, które w treściach znajdą coś, czego nie życzą sobie widzieć” – mówi dr Kocoń.

Stąd pomysł, żeby nauczyć sztuczną inteligencję subiektywnych ocen. W czasie uczenia języka algorytm analizowałby nie tyle decyzję większości badanych, ale odpowiedzi poszczególnych anotatorów i poszukiwałby na tej podstawie spersonalizowanych zależności. W ten sposób uczyłby się, jak przewidywać, które treści spodobają się jednym osobom, a innym - nie.

Jeśli użytkownicy mogliby potem wskazywać algorytmowi, które napotkane treści im się podobają, a które nie - model uczyłby się wrażliwości danego użytkownika.

„Ten pomysł nie jest zupełnie nowy. System rekomendacji YouTube czy Facebooka działa na podobnej zasadzie: znając historię decyzji użytkownika, portale proponują treści, które spodobały się podobnym użytkownikom. Nasz model odnosi się jednak nie tylko do analizy podobieństwa zachowań użytkowników, ale i zjawisk językowych - do analizy reprezentacji ocenianych treści” – opisuje dr Kocoń.

„Mamy pomysł i wiemy, jak go zrealizować, ale warto zastanowić się też, jakie byłyby tego konsekwencje. Czy jeśli odetniemy od siebie wszelkie nieprzyjemne i nie pasujące do naszego światopoglądu treści, to jeszcze bardziej nie zamkniemy się w bańkach informacyjnych i nie zaczniemy żyć w swoich utopiach?” – zastanawia się naukowiec.

Jego zdaniem jednak wiedza o subiektywnych ocenach przyda się w usprawnieniu komunikacji na linii komputer-człowiek. „Społeczeństwo się starzeje. Możemy sobie wyobrazić, że w przyszłości będą istniały roboty do opieki nad osobami starszymi, z którymi będzie się można porozumieć językiem naturalnym” – tłumaczy Jan Kocoń z PWr. I dodaje, że jeśli komunikacja ma przebiegać sprawnie, algorytmy powinny umieć dostosować się swoją wrażliwością do potrzeb konkretnego użytkownika. (PAP)

Ludwika Tomala

Logo PAPZamieszczone na stronach internetowych portalu https://opoka.org.pl/ i https://opoka.news materiały sygnowane skrótem „PAP" stanowią element Serwisów Informacyjnych PAP, będących bazami danych, których producentem i wydawcą jest Polska Agencja Prasowa S.A. z siedzibą w Warszawie. Chronione są one przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych. Powyższe materiały wykorzystywane są przez Fundację Opoka na podstawie stosownej umowy licencyjnej. Jakiekolwiek ich wykorzystywanie przez użytkowników portalu, poza przewidzianymi przez przepisy prawa wyjątkami, w szczególności dozwolonym użytkiem osobistym, jest zabronione. PAP S.A. zastrzega, iż dalsze rozpowszechnianie materiałów, o których mowa w art. 25 ust. 1 pkt. b) ustawy o prawie autorskim i prawach pokrewnych, jest zabronione.

« 1 »
oceń artykuł Pobieranie..

reklama

reklama

reklama

reklama