OpenAI、AIモデルの「幻覚」を軽減する手法を報告

2017-08-24_00h03_35 IT総合
OpenAIは新たな研究論文に関する投稿記事の中で、AIモデルをより論理的に動作させてハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)を回避する方法を発見したかもしれないと

リンク元

コメント

タイトルとURLをコピーしました