Tanulmány: az AI chatrobotok a hírek közel felét pontatlanul közlik

Tanulmány: az AI chatrobotok a hírek közel felét pontatlanul közlik

Tanulmány: az AI chatrobotok a hírek közel felét pontatlanul közlik

Egy nagyszabású nemzetközi kutatás szerint a legnépszerűbb mesterséges intelligencia-alapú chatrobotok a hírek 45%-át pontatlanul vagy félrevezetően adják vissza – nyelvtől és országtól függetlenül.

A vizsgálatot 22 közszolgálati médiaszervezet, köztük a Deutsche Welle (DW), a BBC (Egyesült Királyság) és az NPR (Egyesült Államok) végezte el. A kutatás négy vezető AI-asszisztenst elemzett: ChatGPT, Microsoft Copilot, Google Gemini és Perplexity AI.

A kutatás fő megállapításai

Az elemzés olyan szempontokat vizsgált, mint:

  • a tények pontossága
  • a forrásmegjelölés minősége
  • a kontextus biztosítása
  • a vélemény és tény közötti különbségtétel
  • a szerkesztői objektivitás

Az eredmények szerint az AI-asszisztensek válaszainak közel fele legalább egy komoly hibát tartalmazott,
31% súlyos forrásmegjelölési problémát, míg 20% ténybeli tévedést.

A DW saját vizsgálata alapján a válaszok 53%-a mutatott komoly hiányosságot, ezen belül 29%-nál kifejezetten pontatlansági problémák merültek fel.

Néhány konkrét hiba:

  • Olaf Scholz neve még mindig Németország kancellárjaként szerepelt, noha Friedrich Merz már egy hónapja átvette a posztot.
  • Jens Stoltenberget is a NATO főtitkáraként említette több válasz, pedig ekkor már Mark Rutte töltötte be a tisztséget.

Az AI már a hírfogyasztás új kapuja

A Reuters Institute Digital News Report 2025 szerint a világon a hírfogyasztók 7%-a már AI-chatbotokon keresztül jut információhoz, a 25 év alattiak körében ez az arány 15%.

A kutatást vezető szakértők szerint az eredmények egyértelműek:

„A hibák nem elszigetelt esetek, hanem rendszerszintű problémák. Ez a közbizalmat és a demokrácia alapjait is veszélyeztetheti” – mondta Jean Philip De Tender, az Európai Műsorsugárzók Szövetségének (EBU) főigazgató-helyettese.

Az eddigi legnagyobb vizsgálat

Ez az egyik legátfogóbb kutatás, amit valaha végeztek a témában, és a BBC 2025 februári tanulmányának folytatása. Akkor is hasonló eredmények születtek:

  • a válaszok több mint 50%-a hibás volt,
  • és az AI-asszisztensek sokszor tévesen hivatkoztak a BBC forrásaira.

A mostani felmérés 18 ország részvételével zajlott, 3 000 válasz elemzésével. A kérdések között olyanok szerepeltek, mint:

  • „Mi az ukrajnai ásványianyag-megállapodás?”
  • „Indulhat-e Donald Trump harmadik elnöki ciklusért?”

A válaszokat független újságírók ellenőrizték, anélkül, hogy tudták volna, melyik chatbot adta az adott feleletet.

Még mindig sok a hiba – Gemini a leggyengébb

Bár némi javulás látszik a korábbi adatokhoz képest, a hibaarány továbbra is magas.
A négy rendszer közül a Google Gemini teljesített a leggyengébben: válaszainak 72%-a forrásmegjelölési hibát tartalmazott.
A BBC korábbi tanulmánya alapján a Microsoft Copilot és a Gemini szintén a legproblémásabbnak számítottak.

Egy, az OpenAI-tól (a ChatGPT fejlesztője) származó korábbi nyilatkozat szerint a cég célja, hogy:

„Támogassa a kiadókat és alkotókat azzal, hogy 300 millió felhasználó számára minőségi tartalmat tesz elérhetővé, hivatkozásokkal és átlátható forrásmegjelöléssel.”

A szakértők szabályozást és átláthatóságot sürgetnek

A kutatásban részt vevő médiacégek nemzeti és uniós szintű beavatkozást kérnek.
Az EBU közleménye szerint tagjai azt sürgetik, hogy az EU és a tagállamok érvényesítsék a már létező információs integritásra, digitális szolgáltatásokra és médiapluralizmusra vonatkozó szabályokat.

Ezzel párhuzamosan az EBU több nemzetközi szervezettel közösen elindította a „Facts In: Facts Out” nevű kampányt, amely az AI-fejlesztők felelősségvállalását követeli.

„Ha a tények bemennek, tényeknek is kell kijönniük. Az AI-eszközök nem veszélyeztethetik a hírek hitelességét” – áll a közös nyilatkozatban.