ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のこと。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれている。
AIモデルは、インターネット上の大量のデータを学習している。
インターネット上の情報は間違っている場合があるため、どの情報を学習していた場合、AIが間違ったデータを元に回答を生成してしまうという状況になる。
AIは情報の正確性よりも、与えられたプロンプトの文脈を重視して回答を生成する。
そのため、文章を最適化するうちに情報の内容が変化してしまい、ハルシネーションが起きてしまう。
AIモデルの学習したデータに情報がない場合、ハルシネーションが起きる。
これは、AIの学習したデータ内に情報がない場合、AIがデータを推測し、無理やり回答を生成してしまうからである。
ちなみに、ChatGPTは2021年9月までの情報を学習している。
そもそも、AIの回答を100%正しいものにすることは不可能。