2014年のMacbook Proから2023年秋発売のMacbook Proに乗り換えました。せっかくなので,こちらでもLLMsをローカルで動かしたいと思います。
どうやって走らせるか以下の記事を参考にしました。
あと、以下な動画も参考にしました。
いろいろ悩みましたが、今回の選択肢は,Ollamaにします。
下記記事をみるとDockerを使わないとGPUがうまく動かないようです。
なので、なので,下の記事を参考に,Dockerをまず入れてみました。
記事と違ったのは,サインインするか,サインインしないで続けるかの画面が最後にあったところです。私はサインインをせずに続けました。あと立場と利用目的のアンケート画面がありました。
しかし、ここで素人の自分は躓いてしまします。
Dockerを一緒に動かすってどういうことか分かりません。Dockerを立ち上げておいて、Ollamaを走らせればいいのか、Dockerの中でOllamaを走らせればいいのか分かりません。
しょうがないから、とりあえずDockerを立ち上げたまま、動画のとおりに、Ollamaをダウンロードして、インストールして、立ち上げました。(タスクバーにアイコンが出るときと出ないときがあって困ってます。)
とりあえず、LLama と mistral はコンソール画面で動きました。
走らせるコマンド
ollama run llama2
使えるモデル一覧はこちら。
走らせたいモデルのところをクリックするとコピペができるページがあります。以下mistralの場合。
ollama run mistral
Ollamaのコマンド ollama -h でヘルプ
せっかくだから,以前にwindowsでだめだった70Bのモデルが動くかを試したところ動きました。
LLama70Bの実行例
M3マックのスペックは上で察してください。
dockerを使わないとGPUが動かないという説明もあったのですが,プロセスを見てみると,Ollama Helper (GPU) というのが動いているので,動いているんじゃないかなと思います。
最後ですが,Dockerにはこんなものもあるという記事があったので,いつかチャレンジしてみたいなと思っています。
#AI #やってみた #AIでやってみた #LLM #MacbookPro