Llama 2などの大規模言語モデルをローカルで動かせるライブラリ「Ollama」がAMD製グラボに対応 ガジェット総合 2024.03.19 「Ollama」は「Llama 2」「Mistral」「Vicuna」「LLaVA」といった大規模言語モデル(LLM)をローカルで比較的簡単に動作させられるライブラリです。そんなOllamaがAMD製リンク元
コメント