見出し画像

ローカルLLMを動かすOllamaのインストール方法

Ollamaというツールを使えばローカル環境でLLMを動かすことができます。

Windows版だけではなく、MacOSやLinux版もありますので、各自の環境に合わせてインストールすることができます。

Ollamaは、Windows環境をインストールしてみましょう。


ダウンロード画面

"Download for Windows (Preview)"と書いてあるところをクリックするとexeファイルがダウンロードできます。

そのEXEファイルを実行すればインストールが始まります。

インストールが終わりましたら、コマンドプロンプトで下記を実行して、Ollamaがインストールされたかどうかを確認しましょう。

ollama --help

次のように、ヘルプ画面が表示されます。

(venv) D:\Python>ollama --help
Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.


※2024/05/03追記

次に、ローカルLLMをダウンロードして試してみましょう。今回は、llama3の8Bモデルをダウンロードします。

ollama run llama3

初回だとllama3のダウンロードが始まり、終わりましたらsuccessと表示されるので、何か聞いてみましょう。今回は"Why sky is blue?"と聞きました。


llama3ダウンロード完了メッセージ


llama3の回答メッセージ


GUI版が良いという人は、LM Studioというツールがありますので、以前書いた記事を参考にしてみてください。


この記事が気に入ったらサポートをしてみませんか?