reklama

Sztuczna inteligencja mówi bzdury. Badania ujawniają skalę błędów AI

Aż 46 proc. odpowiedzi generowanych przez sztuczną inteligencję w języku polskim zawiera co najmniej jeden istotny błąd – wynika z badań zaprezentowanych podczas webinaru Polskich Badań Czytelnictwa (PBC). Eksperci ostrzegają: problemy AI mają charakter systemowy i mogą podważać zaufanie do informacji oraz mediów.

AS

dodane 16.01.2026 11:53

Podczas webinaru, który odbył się 13 stycznia, Polskie Badania Czytelnictwa zaprezentowały wyniki polskiej replikacji międzynarodowych badań koordynowanych przez BBC i Europejską Unię Nadawców (EBU). Testy objęły odpowiedzi generowane przez najpopularniejsze modele językowe, m.in. ChatGPT, Gemini i Perplexity. Analizowano ich dokładność, sposób korzystania ze źródeł oraz występowanie tzw. halucynacji.

Z badań wynika, że 46 proc. odpowiedzi generowanych przez sztuczną inteligencję w języku polskim zawiera co najmniej jeden istotny błąd; 27 proc. odpowiedzi AI miało poważne problemy ze źródłami, a 19 proc. zawierało poważne braki w dokładności lub nieprawdziwe informacje. Wyniki z Polski są niemal identyczne jak te uzyskane w badaniach międzynarodowych prowadzonych w 18 krajach i 14 językach.

„Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami. Mają charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu” – podkreśla Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU. 

Jak zaznacza Renata Krzewska, prezes Polskich Badań Czytelnictwa, problem jest szczególnie niebezpieczny dla wiarygodnych redakcji, których marki i nazwiska są wykorzystywane w błędnych streszczeniach AI. „Błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów. Odniesienie do znanej redakcji czy dziennikarza uwiarygadnia odpowiedź AI, która często nie jest rzetelna” – mówi.

Sztuczna inteligencja mówi bzdury. Badania ujawniają skalę błędów AI   Wyniki badań zaprezentowanych podczas webinaru "Prasa w czasach AI – era rewolucji czy ewolucji?" fot. pbc.pl

Podczas webinaru wydawcy i redaktorzy naczelni podkreślali, że mimo dynamicznego rozwoju sztucznej inteligencji jakościowe dziennikarstwo pozostaje niezastąpione. „Sztuczna inteligencja to potencjał i rewolucja, ale rośnie też znaczenie weryfikowanych danych, treści podpisanych nazwiskiem dziennikarza i sygnowanych silną marką” – zaznacza Izabela Sarnecka z Wydawnictwa Bauer.

„Jakościowe dziennikarstwo nadal wygrywa z treściami generowanymi przez AI. Odbiorcy cenią rzetelność, kontekst i odpowiedzialność autora” – dodaje Roman Imielski z Agory.

Eksperci zgodnie wskazują, że sztuczna inteligencja może być narzędziem wspierającym pracę redakcji, ale nie zastąpi dziennikarskiej odpowiedzialności, weryfikacji i rozumienia kontekstu. „To człowiek – dziennikarz – czyni prasę wiarygodną. Tych cech algorytmy nie są w stanie zastąpić” – podsumowuje Mariusz Ulewak z Polska Press. 

Źródło: www.pbc.pl

Dziękujemy za przeczytanie artykułu. Jeśli chcesz wesprzeć naszą działalność, możesz to zrobić tutaj.

1 / 1

reklama