LLM(いわゆるAI)で使われるOllamaのメモ。
Ollamaは、ローカルLLMを実行するOSSのツール。
ChatGPTやClaudeといったLLM(大規模言語モデル、いわゆるAI)はクラウド(インターネット)上のサービスとして提供されており、リモート接続して実行する。
これに対し、自分のPC上で実行できるLLMがローカルLLM。
ローカルLLMは色々な会社が様々なモデル(機械学習したデータ)を公開しており、それらを同じ操作で実行できるのがOllama。
モデルによって日本語に対応しているかどうかや賢さが違う。
どのようなモデルが使えるかはLibraryに一覧がある。
Ollamaはollamaコマンドで実行する。
ollamaコマンドでLLMを実行する際には使用するモデルを指定する。
指定されたモデルはollamaコマンド実行時にダウンロードされる。
モデルは種類によってサイズが異なる。(1〜百数十GB)
LLMはGPUを使って動くが、GPUがLLMに対応できない場合やメモリーサイズが足りない場合は、モデルによってはCPUを使って実行される。
GPUを使う方が高速。
%USERPROFILE%\.ollama\models
))を変えたい場合は、環境変数OLLAMA_MODELSでディレクトリーを指定しておく。これで、ollama.exeが使えるようになる。(自動的に環境変数PATHに追加される)
Ollamaのダウンロードページで「Linux」アイコンを押すと、インストール方法(インストールコマンド)が表示される。
curl -fsSL https://ollama.com/install.sh | sh
ollamaコマンドはサブコマンドを指定して実行する。
オプション | 説明 | 例 |
---|---|---|
--version |
バージョンを表示する。 | ollama --version |
help |
ヘルプを表示する。 | ollama help |
pull |
モデルをダウンロードする。 | ollama pull qwen3:14b |
list |
ダウンロードされたモデルの一覧を表示する。 | ollama list |
rm |
ダウンロードされたモデルを削除する。 | ollama rm qwen3:14b |
run |
LLMを実行する。 対象のモデルがまだダウンロードされていない場合はダウンロードされる。 対話型コンソール(CLI、REPL)が起動される。 対話モードは /bye で終了する。 |
ollama run qwen3:14b |
stop |
LLMの実行を停止する。 | ollama stop qwen3:14b |
ps |
実行中のLLMの一覧を表示する。 | ollama ps |