調査によるとAIチャットボットのニュース要約は約50%の誤りを犯していることが判明

現状、AI活用には正誤性の問題があり、誤った情報もかなり頻出します。

BBCの調査によると、主要なAIチャットボット(ChatGPT、Copilot、Gemini、Perplexity AI)は、ニュースの要約においてある程度の誤りや歪曲を頻繁に含むことが判明しました。

調査では、BBCのニュース記事100本を4つのAIに要約させ、その正確性を専門家が評価させました。その結果、51%の回答に事実誤認や誤引用、古い情報が含まれていました。

特に、19%の回答には誤った日付や数字、不正確な記述があり、13%の引用は改変または存在しないものでした。

例えば、Geminiは英国のNHS(国民保健サービス)が「禁煙に電子タバコを推奨していない」と誤って伝えていましたが、実際は推奨しています。

また、ChatGPTとCopilotはリシ・スナクとニコラ・スタージョンが依然として英首相・スコットランド首相であると誤認しています。Perplexityは中東報道でイランの対応を誤って描写しました。

調査結果によると、問題のある回答の割合はGeminiが60%以上、Copilotが50%以上、ChatGPTとPerplexityが約40%でした。

BBCニュースのCEOデボラ・ターネス氏は、「AIのニュース要約にはリスクがある」と指摘し、開発企業に対し誤情報拡散の防止策を求めました。OpenAIは「引用精度向上に取り組んでいる」と応じたが、課題は残ります。

AIのニュース活用には、依然として正確性向上への取り組みが必要となります。

おすすめの記事