Llama 2などの大規模言語モデルをローカルで動かせるライブラリ「Ollama」がAMD製グラボに対応

2017-08-24_00h03_35 ガジェット総合
「Ollama」は「Llama 2」「Mistral」「Vicuna」「LLaVA」といった大規模言語モデル(LLM)をローカルで比較的簡単に動作させられるライブラリです。そんなOllamaがAMD製

リンク元

コメント

タイトルとURLをコピーしました