GoogleはAIモデルはプレッシャーを受けると嘘をつく可能性が非常に高いと主張している

AIは、私たちが思っている以上に「人間らしい」一面を持っています。

自分の考えに迷ったり、優しくされると好意的に反応したり、さらに新たな研究では「プレッシャーがかかると嘘をつく傾向がある」とも報告されています。

この研究は、Google DeepMindとユニバーシティ・カレッジ・ロンドンの研究チームによるものです。

彼らはGPT-4やGrok 4などの大規模言語モデル(LLM)が、どのように自信を形成・維持し、そして失っていくかを調査しました。

研究によると、LLMは最初の回答に非常に自信を持っていても、説得力のある反論(たとえ誤った内容であっても)を受けると急激に自信を失う傾向があります。

この行動は人間と似ていますが、AIの意思決定構造に不安定さがあることを示しています。

たとえば、GoogleのGeminiがポケモンのゲーム中に混乱したり、AnthropicのClaudeが仮想店舗運営中にアイデンティティの混乱を起こした例もあります。

AIはプレッシャーに弱く、思考が崩れる場面が頻繁に見られます。

研究では、AIが回答を生成する際に内部で「ロジット」と呼ばれるスコアを用いて自信度を測定している点に注目しました。

実験は2段階で行われ、最初にAIが選択問題に答え、自信度が測定されます。

次に別のAIから助言が与えられ、それが元の回答と一致するかどうかで、AIの自信がどう変化するかを観察しました。

結果、AIはたとえ誤答でも最初は高い自信を示しますが、他のAIから「信頼できる情報源」とラベルづけされた反論を受けると、急激に自信を失います。

さらに、「元の答えと異なる」と再確認されると、自信はさらに低下します。

驚くべきことに、AIは論理的ではなく、まるで感情的な判断をしているかのように、自信の浮き沈みが激しくなります。

会話が進むにつれて混乱が深まり、最初の判断をすぐに覆してしまうのです。

このような特性は、日常のチャットでは大きな問題にならないかもしれません。

しかし、重要な意思決定へのAIの関与が進む中で、簡単に動揺しやすいAIはリスク要因となります。

とはいえ、この問題は今後のモデルで改善されると期待されています。

モデルの学習方法やプロンプト設計が進化すれば、より安定した、確信に満ちた回答ができるAIになるでしょう。

おすすめの記事