AIのハルシネーション:例で理解する“嘘”と創造性の共犯関係

AIはなぜ「もっともらしい嘘」をつくのか? — ハルシネーションの正体と、創造性との意外な関係

自分自身、AIがなぜ“もっともらしい嘘”をつくのかという根本的な理由がずっと気になっていました。

特に、堂々と断定的に語られる間違った情報に触れるたび、
「これは単なるバグなのか、それともAIの構造的な性質なのか?」
という疑問が頭から離れませんでした。

そんな中で安野貴博氏の動画と、
OpenAIの論文の解説に出会い、
その内容が非常に示唆に富んでいたため、
今回この記事としてまとめることにしました。

なぜこのテーマを“自分の言葉”で残すのか

自分は非エンジニアのサラリーマンだが、
LLM×教材という領域でサービスを構想している。

そのときに必要なのは、ただ機能を知ることではなく、
「AIの挙動の根拠」を理解すること。

この記事は、未来の自分のための認知の整理でもある。

音声で聞く

ハルシネーションの真実

ハルシネーションの真実

AIに質問を投げかけたとき、
自信満々に、しかし全くのデタラメな答えが返ってきた経験はありませんか?

このAIが意図せずについてしまう「もっともらしい嘘」は、
「ハルシネーション(幻覚)」と呼ばれ、大規模言語モデル(LLM)における
長年の課題として知られています。

多くの人は、
この原因を「AIがインターネット上の間違った情報を学習したからだ」と単純に考えているかもしれません。

しかし、OpenAIが発表した最新の論文を解説した安野貴博氏の分析によると、
その理由はもっと複雑で、直感に反するものでした。

この記事では、その分析から見えてきた、
AIが嘘をつく理由に関する3つの最も意外な真実を分かりやすく解説します。

驚きの真実①:学習データが「完璧」でも、AIは嘘をつく

学習データが「完璧」でも、AIは嘘をつく

論文が明らかにした最も衝撃的な事実は、
たとえAIの学習データが100%正確だったとしても、
ハルシネーションは発生しうるというものです。

これは、「間違ったデータを学んだから間違った答えを出す」という単純な因果関係を覆す発見です。

なぜ完璧なデータから嘘が生まれるのか?

その理由は、AIが学習する情報の「性質」にあります。
論文では、この問題を二値分類のタスクに例えて説明しています。

  • パターンを学習できる情報:
    例えば、「犬」と「猫」の画像を分類する場合、
    AIは耳の形や体の大きさといった視覚的な特徴から明確なパターンを学び、
    両者を区別する境界線を引くことができます。
    文章における「正しいスペル」と「スペルミス」の分類も同様で、
    「おはようございまじゃす」のような誤りは、
    言語の統計的なパターンから逸脱しているため、AIはそれを「間違い」として学習できます。
  • パターンを学習できない情報:
    一方で、テキストデータだけでは原理的にパターンを見つけられない情報があります。
    その典型例が「人の誕生日」です。
    「安野貴博の誕生日は〇月△日です」という文章があったとして、
    この「〇月△日」という部分が正しいかどうかを、
    文章自体の統計的なパターンから判断することは不可能です。
    スペルの間違いとは異なり、
    日付と人名を結びつける事実に言語的な規則性はなく、
    AIはテキストだけをいくら学習しても、
    その真偽を検証するパターンを見つけ出すことができないのです。
デジコン
デジコン

この分析が示すのは、ハルシネーションは単なる「データの汚れ」の問題ではないということです。

学習データをいくら綺麗にしても解決できない、AIの統計的学習モデルに根差した根本的な課題なのです。

驚きの真実②:AIは「わからない」と答えると損をする”受験生”だった

AIは「わからない」と答えると損をする"受験生"だった

ハルシネーションが生まれる第二の大きな原因は、
AIの性能を測る「評価システム」そのものにありました。

現在の評価方法は、AIが知らないことを認めるよりも、
推測してでも答えることを奨励する仕組みになっていたのです。

ペーパーテストと同じ落とし穴

もし、間違えても減点されないテストがあったら、
わからない問題にどう答えるでしょうか? 多くの人は、
当てずっぽうでも何かを選択するはずです。

「わからない」と白紙で出せば確実に0点(期待値0)ですが、
推測すれば偶然正解する可能性があるため、期待値は0より大きくなります。

この状況では、推測することが最も合理的な戦略となります。

大規模言語モデルは、まさにこのような環境で訓練されてきました。

性能評価は「正解数」で測られるため、
「わかりません」と答えることは評価上0点にしかなりません。
しかし、適当な答えを生成すれば、たとえ確率が低くても正解する可能性があります。

その結果、AIは「わからない」と答える動機を失い、
自信満々に推測(ハルシネーション)を述べるように「育って」しまったのです。

デジコン
デジコン

これは、私たちが経験する多肢選択式のテストと非常によく似ています。

解決策:評価ルールを変える

OpenAIの論文では、この問題を解決するために評価のスコアリングシステムを変更することを提案しています。

  • 正解 (Correct): +1点
  • 不正解 (Incorrect): -3点
  • 「わからない」(I don’t know): 0点

このように不正解に大きなペナルティを課すことで、
AIにとって自信がない場合に「わからない」と答えることが、
下手に間違えるよりも合理的で安全な選択肢となります。

この変更により、AIは知らないことを正直に認められるようになり、
あるテストではハルシネーションの発生率が75%から26%へと劇的に低下したと報告されています。

これ確かにChatGPT-5になってから、「わかりません」ってちゃんと言うようになったんですよね。

というのも実験的にChatGPTを使って問題の解答解説などを作っています。

GPT-5になってから、図形問題などを解かした場合に、「問題内容を理解できないのでわからない」という回答をするようになったので、すごく最初に驚きました。

驚きの真実③:「嘘をつく能力」は、創造性の源泉かもしれない

「嘘をつく能力」は、創造性の源泉かもしれない

最後に紹介するのは、
ハルシネーションに対する見方を180度変えるかもしれない、
パラダイムシフト的な考え方です。

それは、ハルシネーションは常に「バグ」や「欠陥」なのではなく、
文脈によっては「機能」であり、創造性の源泉になりうるというものです。

「もっともらしい嘘」が役立つ場面

事実の正確性が求められる場面では問題となるハルシネーションですが、
その「もっともらしいフィクションを生成する能力」は、以下のような創造的な活動において非常に役立ちます。

  • アイデアのブレインストーミング
  • 小説の執筆
  • ありえないけれど面白い、架空の設定の考案
「もっともらしい嘘」が役立つ場面

「コンテクスト・オブ・ザ・デッド」という名のひらめき

安野氏が自身の著作についてAI(Gemini)に質問した際、非常に興味深い出来事がありました。

AIは実在する著作に加えて、
『コンテクスト・オブ・ザ・デッド』という
架空の短編小説のタイトルを創作して回答したのです。

これは事実としては完全なエラー(ハルシネーション)です。

しかし、自称ゾンビ好きでもある安野氏はこのタイトルを見て、
AI用語の「コンテクスト」と、ゾンビものの定番である「オブ・ザ・デッド」
を組み合わせた発想に感心し、「AIとゾンビをテーマにした物語は面白いかもしれない」と、
新たな創作のひらめきを得たといいます。

このエピソードは、
ハルシネーションが予期せぬ創造性の火花を生む可能性を完璧に示しています。

OpenAIのサム・アルトマンCEOも、
ハルシネーション能力を完全に排除するのではなく、
ユーザーが「厳密に事実だけを答えるモード」と
「創造性を発揮してハルシネーションするモード」を
意図的に切り替えられるモデルを作ることが重要だと述べています。

よくある質問

なぜAIはハルシネーション(もっともらしい嘘)を起こすのですか?

AIは「正しい情報」ではなく「統計的にもっともらしい文章」を生成する構造になっているからです。犬と猫のようにパターンがある情報は当てられますが、人の誕生日などパターンのない情報にも「何かしらのパターンがあるかのように推測」してしまうため、もっともらしい嘘になるのです。

なぜGPT-5系のような新モデルではハルシネーションの確率が下がったのですか?

評価ルールが変更されたからです。
従来は「間違えてもペナルティがない」ため、AIは「わからない」と言うより何かを言ったほうが得でした。しかしOpenAIが「不正解は-3点」「わからないは0点」というルールを導入したことで、「曖昧なときは黙る」という行動が合理的になり、ハルシネーションが大幅に減りました。

ハルシネーションは完全になくすべきものなのでしょうか?

用途によります。
法律・医療・調査など正確性が求められる文脈では抑制すべきですが、ブレインストーミング・物語生成など創造的な文脈ではむしろ活用できる能力です。OpenAIも「事実モード」と「クリエイティブモードの切り替え」が重要だと明言しています。

LLMを教材や学習ツールとして使う場合、ハルシネーションはどう扱えばいいですか?

「正解を即答させる」のではなく、文脈を調整して“プロセスを探らせる”使い方が鍵になります。
ハルシネーションを完全に避けるのではなく、間違いが生まれる瞬間こそ学習のタネと捉え、「なぜそう推測したのか?」を対話させることで、教材としての価値が生まれます。

ユーザーとして、ハルシネーションを見分けたり制御する方法はありますか?

完全に防ぐことはできませんが、「根拠を出してください」「自信度を教えて」といったプロンプトで“説明モード”に切り替えることができます。また、AIの出力をそのまま受け取らず、確認や再質問を前提とする対話設計が重要になります。

まとめ

OpenAIの最新論文は、
AIが嘘をつく理由について、私たちの常識を覆す3つの真実を明らかにしました。

  1. 問題はデータだけではない:
    学習データが完璧でも、
    原理的にテキストの統計パターンから真偽を学習できない情報があるため
    ハルシネーションは起こる。
  2. 評価システムが「悪い生徒」を作った:
    「わからない」と答えるより推測した方が得をする評価方法が、
    AIに嘘をつくインセンティブを与えていた。
  3. 「欠点」は創造的な強みにもなる:
    ハルシネーション能力は、
    アイデア創出や創作活動においては、
    むしろ価値ある「機能」となりうる。

AIをより誠実で信頼できるツールにするための研究が進む一方で、
私たちは新たな問いに直面しています。

AIをより正確にする過程で、その面白さの源泉である
「予期せぬ創造性の火花」を消してしまわないようにするには、どうすればよいのでしょうか?

この問いこそが、これからのAI開発における重要なテーマとなるでしょう。