Aż 46 proc. odpowiedzi generowanych przez sztuczną inteligencję w języku polskim zawiera co najmniej jeden istotny błąd – wynika z badań zaprezentowanych podczas webinaru Polskich Badań Czytelnictwa (PBC). Eksperci ostrzegają: problemy AI mają charakter systemowy i mogą podważać zaufanie do informacji oraz mediów.
Podczas webinaru, który odbył się 13 stycznia, Polskie Badania Czytelnictwa zaprezentowały wyniki polskiej replikacji międzynarodowych badań koordynowanych przez BBC i Europejską Unię Nadawców (EBU). Testy objęły odpowiedzi generowane przez najpopularniejsze modele językowe, m.in. ChatGPT, Gemini i Perplexity. Analizowano ich dokładność, sposób korzystania ze źródeł oraz występowanie tzw. halucynacji.
Z badań wynika, że 46 proc. odpowiedzi generowanych przez sztuczną inteligencję w języku polskim zawiera co najmniej jeden istotny błąd; 27 proc. odpowiedzi AI miało poważne problemy ze źródłami, a 19 proc. zawierało poważne braki w dokładności lub nieprawdziwe informacje. Wyniki z Polski są niemal identyczne jak te uzyskane w badaniach międzynarodowych prowadzonych w 18 krajach i 14 językach.
„Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu” – podkreśla Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU.
Jak zaznacza Renata Krzewska, prezes Polskich Badań Czytelnictwa, problem jest szczególnie niebezpieczny dla wiarygodnych redakcji, których marki i nazwiska są wykorzystywane w błędnych streszczeniach AI. „Błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie do znanej redakcji czy dziennikarza uwiarygadnia odpowiedź AI, która często nie jest rzetelna” – mówi.
Wyniki badań zaprezentowanych podczas webinaru "Prasa w czasach AI – era rewolucji czy ewolucji?"
fot. pbc.pl
Podczas webinaru wydawcy i redaktorzy naczelni podkreślali, że mimo dynamicznego rozwoju sztucznej inteligencji jakościowe dziennikarstwo pozostaje niezastąpione. „Sztuczna inteligencja to potencjał i rewolucja, ale rośnie też znaczenie weryfikowanych danych, treści podpisanych nazwiskiem dziennikarza i sygnowanych silną marką” – zaznacza Izabela Sarnecka z Wydawnictwa Bauer.
„Jakościowe dziennikarstwo nadal wygrywa z treściami generowanymi przez AI. Odbiorcy cenią rzetelność, kontekst i odpowiedzialność autora” – dodaje Roman Imielski z Agory.
Eksperci zgodnie wskazują, że sztuczna inteligencja może być narzędziem wspierającym pracę redakcji, ale nie zastąpi dziennikarskiej odpowiedzialności, weryfikacji i rozumienia kontekstu. „To człowiek – dziennikarz – czyni prasę wiarygodną. Tych cech algorytmy nie są w stanie zastąpić” – podsumowuje Mariusz Ulewak z Polska Press.
Źródło: www.pbc.pl
Dziękujemy za przeczytanie artykułu. Jeśli chcesz wesprzeć naszą działalność, możesz to zrobić tutaj.