ハルシネーション
「ハルシネーション」とは、英語で「幻覚」を意味する単語であり、とりわけAIの分野では「AIが事実に基づかない虚偽の情報をもっともらしく生成出力する」現象を指す意味で用いられる表現である。
AIがハルシネーションを生じる原因は多岐にわたるが、たとえば、機械学習・深層学習の訓練データの不足や偏り、あるいは訓練プロセスの設計が適切でなかった、といった要因が考えられる。
訓練データを多く供給しすぎると「過学習」状態に陥って新しい未知のデータを一般化できなくなったり、あるいは事実でない誤ったパターンを見出してしまったりする場合も考えられる。
AIのハルシネーションを防ぐためには、より多種多様で包括的な訓練データを供給する、学習プロセスを最適化する、といった方法が考えられる。AIの出力結果に対する人的な監視や評価も不可欠といえる。
幻覚
- hallucinationのページへのリンク