Tanulmány: az AI chatrobotok a hírek közel felét pontatlanul közlik
Tanulmány: az AI chatrobotok a hírek közel felét pontatlanul közlik
Egy nagyszabású nemzetközi kutatás szerint a legnépszerűbb mesterséges intelligencia-alapú chatrobotok a hírek 45%-át pontatlanul vagy félrevezetően adják vissza – nyelvtől és országtól függetlenül.
A vizsgálatot 22 közszolgálati médiaszervezet, köztük a Deutsche Welle (DW), a BBC (Egyesült Királyság) és az NPR (Egyesült Államok) végezte el. A kutatás négy vezető AI-asszisztenst elemzett: ChatGPT, Microsoft Copilot, Google Gemini és Perplexity AI.
A kutatás fő megállapításai
Az elemzés olyan szempontokat vizsgált, mint:
- a tények pontossága
- a forrásmegjelölés minősége
- a kontextus biztosítása
- a vélemény és tény közötti különbségtétel
- a szerkesztői objektivitás
Az eredmények szerint az AI-asszisztensek válaszainak közel fele legalább egy komoly hibát tartalmazott,
31% súlyos forrásmegjelölési problémát, míg 20% ténybeli tévedést.
A DW saját vizsgálata alapján a válaszok 53%-a mutatott komoly hiányosságot, ezen belül 29%-nál kifejezetten pontatlansági problémák merültek fel.
Néhány konkrét hiba:
- Olaf Scholz neve még mindig Németország kancellárjaként szerepelt, noha Friedrich Merz már egy hónapja átvette a posztot.
- Jens Stoltenberget is a NATO főtitkáraként említette több válasz, pedig ekkor már Mark Rutte töltötte be a tisztséget.
Az AI már a hírfogyasztás új kapuja
A Reuters Institute Digital News Report 2025 szerint a világon a hírfogyasztók 7%-a már AI-chatbotokon keresztül jut információhoz, a 25 év alattiak körében ez az arány 15%.
A kutatást vezető szakértők szerint az eredmények egyértelműek:
„A hibák nem elszigetelt esetek, hanem rendszerszintű problémák. Ez a közbizalmat és a demokrácia alapjait is veszélyeztetheti” – mondta Jean Philip De Tender, az Európai Műsorsugárzók Szövetségének (EBU) főigazgató-helyettese.
Az eddigi legnagyobb vizsgálat
Ez az egyik legátfogóbb kutatás, amit valaha végeztek a témában, és a BBC 2025 februári tanulmányának folytatása. Akkor is hasonló eredmények születtek:
- a válaszok több mint 50%-a hibás volt,
- és az AI-asszisztensek sokszor tévesen hivatkoztak a BBC forrásaira.
A mostani felmérés 18 ország részvételével zajlott, 3 000 válasz elemzésével. A kérdések között olyanok szerepeltek, mint:
- „Mi az ukrajnai ásványianyag-megállapodás?”
- „Indulhat-e Donald Trump harmadik elnöki ciklusért?”
A válaszokat független újságírók ellenőrizték, anélkül, hogy tudták volna, melyik chatbot adta az adott feleletet.
Még mindig sok a hiba – Gemini a leggyengébb
Bár némi javulás látszik a korábbi adatokhoz képest, a hibaarány továbbra is magas.
A négy rendszer közül a Google Gemini teljesített a leggyengébben: válaszainak 72%-a forrásmegjelölési hibát tartalmazott.
A BBC korábbi tanulmánya alapján a Microsoft Copilot és a Gemini szintén a legproblémásabbnak számítottak.
Egy, az OpenAI-tól (a ChatGPT fejlesztője) származó korábbi nyilatkozat szerint a cég célja, hogy:
„Támogassa a kiadókat és alkotókat azzal, hogy 300 millió felhasználó számára minőségi tartalmat tesz elérhetővé, hivatkozásokkal és átlátható forrásmegjelöléssel.”
A szakértők szabályozást és átláthatóságot sürgetnek
A kutatásban részt vevő médiacégek nemzeti és uniós szintű beavatkozást kérnek.
Az EBU közleménye szerint tagjai azt sürgetik, hogy az EU és a tagállamok érvényesítsék a már létező információs integritásra, digitális szolgáltatásokra és médiapluralizmusra vonatkozó szabályokat.
Ezzel párhuzamosan az EBU több nemzetközi szervezettel közösen elindította a „Facts In: Facts Out” nevű kampányt, amely az AI-fejlesztők felelősségvállalását követeli.
„Ha a tények bemennek, tényeknek is kell kijönniük. Az AI-eszközök nem veszélyeztethetik a hírek hitelességét” – áll a közös nyilatkozatban.