LLMO研究所

ハルシネーションとは

AIが事実に基づかない情報を、あたかも正しいかのように生成してしまう現象。

用語集に戻る
AI検索

ハルシネーション

Hallucination

AIが事実に基づかない情報を、あたかも正しいかのように生成してしまう現象。

詳細解説

LLMの重大な課題の一つ。RAGの導入や、信頼性の高い情報源の参照により軽減が図られている。LLMO対策の観点では、AIが正確な情報を回答できるよう、明確で検証可能なデータを含むコンテンツを提供することが重要。構造化データやファクトチェック可能な統計情報の活用が有効。

活用例・実践ポイント

1

AIが正確に引用できるよう、検証可能なデータを含むコンテンツを作成

2

構造化データでコンテンツの事実関係を明確にする

関連用語

「AI検索」カテゴリの他の用語

まずはAI診断をお試しください

あなたのサイトがAIにどう評価されているか、無料で診断できます。URLを入力するだけで30秒で結果がわかります。

お問い合わせ↓