生成AIが嘘をつく?ハルシネーションの真相に迫る

どうも4号です。

最近ボウリングにハマってます。

休みの日は1人で20~30ゲームくらい投げるのですが、キモがられます。

悲しいです。

今回は最近流行りの生成AIについての話題です。

皆さんは生成AI(GeminiやChatGPT)に嘘をつかれたことはありませんか?

最近は基本性能が良くなってきて正確な回答が返ってくることが増えましたが、

まだ現状では生成AIが提供してくれる情報を全て鵜呑みにすることはできません。

このような生成AIが誤った情報を提供してしまう現象をハルシネーションと言います。

今回はこのハルシネーションが発生する原因とその対策をご紹介します。

ハルシネーションとは

一般的に「ハルシネーション」とは、人が精神的な状態によって、実際にはないものを見てしまうことを指します。

しかし、近年では、人工知能(AI)の世界でも、この「ハルシネーション」という言葉が使われるようになりました。

AIのハルシネーションとは、AIがまるで幻覚を見ているかのように、存在しない情報や、間違った情報を生成してしまう現象のことです。

例えば、チャットAIに「犬は空を飛べるか?」と尋ねたところ、「はい、犬は特殊な翼を使って空を飛ぶことができます」と答えてしまう、といったケースが挙げられます。

ハルシネーションが起こる原因

AIがハルシネーションを起こす原因は、いくつか考えられます。

学習データの偏り: AIは、膨大な量のデータから学習しますが、そのデータが偏っていると、現実とは異なる認識をしてしまうことがあります。

モデルの複雑さ: AIのモデルが複雑になるほど、予測が難しくなり、誤った結果を出力してしまう可能性が高まります。

曖昧な質問: AIに質問をする際、質問の意図が曖昧だと、AIは誤解してしまい、不正確な回答をしてしまうことがあります。

ハルシネーションがもたらす問題

AIのハルシネーションは、以下の点で問題となります。

誤った情報の拡散: ハルシネーションによって生成された誤った情報が、あたかも事実であるかのように拡散されてしまう可能性があります。

信頼性の低下: AIに対する信頼が低下し、AIの活用が阻害される可能性があります。

安全性の問題: ハルシネーションが原因で、誤った判断がされ、事故につながる可能性も考えられます。

対策

ハルシネーションを防ぐためには、なるべく性能の良いモデルにグレードアップすることも重要ですが、
お金をかけずにすぐできる対策として、プロンプト(質問文)の書き方のポイントを抑えましょう。

プロンプトの書き方のポイントを掴めば、より正確な回答を得ることができます。

具体的に指示する:

  • 悪い例: 「何か面白いことを書いて」
  • 良い例: 「10歳の子供にも理解できるよう、ブラックホールについて説明する記事のタイトルを5つ考えてください」
  • できるだけ具体的に、何を生成してほしいのかを指示しましょう。

ロールプレイ:

  • 例: 「あなたは歴史の専門家です。江戸時代の庶民の生活について、子供向けの絵本に合うように説明してください」
  • AIに特定の役割を与えることで、より個性的な回答が得られます。

例示:

  • 例: 「『学ぶことは楽しい』というテーマで、短歌を詠んでください。例)『本を開く 知識の世界へ いざ行こう』」
  • 期待する出力の例を示すことで、AIはよりそれに近いものを生成します。

制約条件:

  • 例: 「300字以内で、夏休みの自由研究のテーマを5つ提案してください」
  • 文字数、形式、トーンなど、出力に求める条件を具体的に示しましょう。

フィードバック:

  • AIの生成結果に対して、具体的にフィードバックを与えることで、より良い結果に近づけます。
  • 「もう少し具体的に説明してください」「別の言い方に言い換えてください」など、具体的な指示を出すと効果的です。

まとめ

AIのハルシネーションは、AIの発展に伴い、避けて通れない課題となっています。

ハルシネーションを完全に防ぐことは難しいかもしれませんが、その原因を理解し、適切な対策を講じることで、AIの信頼性を高めることが可能です。

弊社ではGoogleWorkspaceやGemini for GoogleWorkspaceの導入支援を行っております。

ご興味ございましたらお気軽にお問い合わせください。

野村 航平

高専でC・Java、プログラミングスクールにてRuby・JavaScript・SQL・AWSなどを学習後、現在のヒカリシステムに入社。
木下さんの弟子をやらせてもらっています。

関連記事