2025.04.04

ハルシネーション

ハルシネーション

読み方:ハルシネーション

ハルシネーションとは

ハルシネーションとは、AIが事実に基づかない情報や誤った情報を回答する現象のことです。ハルシネーションが発生する原因としては、学習データの誤りや偏り、データの解釈ミス、モデル設計の限界などがあげられます。

ハルシネーションの種類

  • Intrinsic Hallucinations
    Intrinsic Hallucinationsとは、学習データとは異なる回答をする現象です。「内在的ハルシネーション」とも呼称されます。AIに対して「今年は令和7年です」と学習させ、今年は何年か質問した際に「今年は令和5年です」と回答した場合はIntrinsic Hallucinationsに該当します。
  • Extrinsic Hallucinations
    Extrinsic Hallucinationsとは、学習データに存在しない内容の回答をする現象です。「外在的ハルシネーション」とも呼称されます。「2021年に人類がはじめて火星に居住地を築いた」のように実際に発生していない出来事を回答した場合はExtrinsic Hallucinationsに該当します。

ハルシネーションのリスクと対策

ハルシネーションが発生した場合、誤った情報が拡散されて社会的混乱を招くことや、企業が誤情報をもとに意思決定を行った結果、経済的損失や信用を失うなどのリスクがあります。ハルシネーションのリスク対策には、AIに対して正確な指示を行う、学習データの品質を管理して向上させることなどがあげられます。

  • Salesforce コンサル派遣なら選ばれるセラクCCC
  • クラウド導入・運用はプロにお任せ!
  • 統合人事システム COMPANY支援
  • 法人・活用サポートまで充実NewtonX