ハルシネーションとは


ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のこと。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれている。

原因


学習データに間違いがある場合

AIモデルは、インターネット上の大量のデータを学習している。

インターネット上の情報は間違っている場合があるため、どの情報を学習していた場合、AIが間違ったデータを元に回答を生成してしまうという状況になる。

文脈を重視した回答

AIは情報の正確性よりも、与えられたプロンプトの文脈を重視して回答を生成する。

そのため、文章を最適化するうちに情報の内容が変化してしまい、ハルシネーションが起きてしまう。

学習データに情報がない場合

AIモデルの学習したデータに情報がない場合、ハルシネーションが起きる。

これは、AIの学習したデータ内に情報がない場合、AIがデータを推測し、無理やり回答を生成してしまうからである。

ちなみに、ChatGPTは2021年9月までの情報を学習している。

対策


そもそも、AIの回答を100%正しいものにすることは不可能。