AI検索
ハルシネーション
Hallucination
AIが事実に基づかない情報を、あたかも正しいかのように生成してしまう現象。
詳細解説
LLMの重大な課題の一つ。RAGの導入や、信頼性の高い情報源の参照により軽減が図られている。LLMO対策の観点では、AIが正確な情報を回答できるよう、明確で検証可能なデータを含むコンテンツを提供することが重要。構造化データやファクトチェック可能な統計情報の活用が有効。
活用例・実践ポイント
1
AIが正確に引用できるよう、検証可能なデータを含むコンテンツを作成
2
構造化データでコンテンツの事実関係を明確にする
