AIの本と用語検索

ハルシネーション

近年、人工知能の分野で耳にするようになった「ハルシネーション」は、AIが事実に基づかない、誤った情報を生成してしまう現象を指します。

まるで人間が幻覚を見るかのように、もっともらしいけれど実際には存在しない事柄やデータを、AIが自信を持って提示してしまうことから、この名前がつけられました。

これは、AIが学習した膨大なデータの中から、一見関連性の高いパターンや単語を組み合わせて文章を生成する過程で起こります。

例えば、特定のトピックについて質問された際、学習データにはその答えとなる情報が直接含まれていないにもかかわらず、AIは既知の知識を基に推論し、あたかも正しいかのような架空の事実を作り上げてしまいます。

この現象は、特に文章生成モデルや大規模言語モデルにおいて顕著に見られます。

ハルシネーションは、AIの出力の信頼性を損なう大きな課題です。AIが生成する情報が正しいかどうかを常に人が確認する必要があり、特に医療や法律といった分野での利用には慎重な対応が求められます。