見出し画像

Google Colab で CALM2 を試す

「Google Colab」で「CALM2」を試したので、まとめました。


1. CALM2

CALM2」は、「CyberAgent」が開発した70億パラメータ・32Kトークン対応の日本語LLMです。

2. CALM2 のモデル

「CALM2」は、現在2つのモデルが提供されています。

cyberagent/calm2-7b : ベースモデル
cyberagent/calm2-7b-chat : 対話モデル

3. Colabでの実行

Colabでの実行手順は、次のとおりです。

(1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。

(2) パッケージのインストール。

# パッケージのインストール
!pip install transformers accelerate

(3) トークナイザーとモデルとTextStreamerの準備。
今回は、チャットモデル「cyberagent/calm2-7b-chat」を使います。

import transformers
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer

# トークナイザーとモデルとTextStreamerの準備
tokenizer = AutoTokenizer.from_pretrained(
    "cyberagent/calm2-7b-chat"
)
model = AutoModelForCausalLM.from_pretrained(
    "cyberagent/calm2-7b-chat", 
    device_map="auto", 
    torch_dtype="auto"
)
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)

(4) 推論の実行。

# プロンプトの準備
prompt = """USER: まどか☆マギカでは誰が一番かわいい?
ASSISTANT: """

# 推論の実行
token_ids = tokenizer.encode(prompt, return_tensors="pt")
output_ids = model.generate(
    input_ids=token_ids.to(model.device),
    max_new_tokens=300,
    do_sample=True,
    temperature=0.8,
    streamer=streamer,
)

個人差はあると思いますが、私の個人的な好みでは、鹿目まどかちゃんが一番かわいいと思います。彼女の優しさや純粋さ、健気さがとても魅力的です。



この記事が気に入ったらサポートをしてみませんか?