Článek je aktuálním shrnutím nové studie EBU/BBC o tom, jak si AI asistenti vedou u dotazů na zprávy. Dobře vysvětluje hlavní nálezy, dává konkrétní příklady i širší kontext. Chybí mu ale víc metodických detailů (definice „vážné chyby“, přesné počty na model/jazyk) a pár tvrzení by si zasloužilo jasnější číselné opory přímo v textu.
1. Omezená hloubka analýzy: Článek uvádí příklady chyb, ale méně se věnuje technickým důvodům, proč AI „halucinují“ (např. podrobnosti o tréninkových datech nebo algoritmech). Technicky zaměřený čtenář by mohl postrádat hlubší vysvětlení.
2. Nevyváženost hodnocení nástrojů: Zmiňuje zlepšení u Google Gemini a Microsoft Copilot, ale neuvádí podrobnosti, v čem to konkrétně spočívá, zatímco ChatGPT a Perplexity jsou kritizovány bez náznaku jejich silných stránek.
3. Absence reakcí technologických firem: Článek by mohl být silnější, kdyby zahrnoval vyjádření od společností jako OpenAI, Google nebo Perplexity k výsledkům výzkumu, aby čtenáři viděli jejich pohled.
4. Krátké zmínky o dopadech: I když článek zmiňuje ohrožení důvěry veřejnosti, mohl by více rozpracovat, jaké konkrétní důsledky mohou chybné informace od AI mít (např. v politických nebo zdravotních kontextech).
Celkové hodnocení:
Článek je dobře napsaný a relevantní, zejména pro čtenáře, kteří se zajímají o dopady AI na zpravodajství a společnost. Přináší důležité varování před slepou důvěrou v AI asistenty a zdůrazňuje potřebu kritického myšlení při používání těchto technologií. Přesto by měl být obohacen o techničtější analýzu nebo reakce dotčených firem, aby poskytl vyváženější pohled a měl by mít hlubší metrologii založenou na vědeckých postupech.