GoogleがAIの誤情報生成を防止するAIモデル「DataGemma」をリリース、「信頼できるデータ集」を参照して幻覚(ハルシネーション)を軽減 ガジェット総合 2024.09.17 チャットAIやコード生成などに用いられる大規模言語モデル(LLM)の開発が急速に進んでいますが、LLMには誤った情報を真実かのように出力してしまう「幻覚(ハルシネーション)」という問題が存在していますリンク元
コメント