生成AIが堂々と嘘をつくのは「ハルシネーション」のせいなの?

IT総合
「幻覚」「錯覚」を意味する英語「hallucination」より、生成AI、特に大規模言語モデル(LLM)において、事実と異なる情報や存在しない内容をもっともらしく出力してしまう現象を指す。
Sou

リンク元

コメント

タイトルとURLをコピーしました