ハルシネーション
読み方:ハルシネーション
ハルシネーションとは
ハルシネーションとは、AIが事実に基づかない情報や誤った情報を回答する現象のことです。ハルシネーションが発生する原因としては、学習データの誤りや偏り、データの解釈ミス、モデル設計の限界などがあげられます。
ハルシネーションの種類
- Intrinsic Hallucinations
Intrinsic Hallucinationsとは、学習データとは異なる回答をする現象です。「内在的ハルシネーション」とも呼称されます。AIに対して「今年は令和7年です」と学習させ、今年は何年か質問した際に「今年は令和5年です」と回答した場合はIntrinsic Hallucinationsに該当します。
- Extrinsic Hallucinations
Extrinsic Hallucinationsとは、学習データに存在しない内容の回答をする現象です。「外在的ハルシネーション」とも呼称されます。「2021年に人類がはじめて火星に居住地を築いた」のように実際に発生していない出来事を回答した場合はExtrinsic Hallucinationsに該当します。
ハルシネーションのリスクと対策
ハルシネーションが発生した場合、誤った情報が拡散されて社会的混乱を招くことや、企業が誤情報をもとに意思決定を行った結果、経済的損失や信用を失うなどのリスクがあります。ハルシネーションのリスク対策には、AIに対して正確な指示を行う、学習データの品質を管理して向上させることなどがあげられます。