ローカルで動く日本語対応LLMについて調べてみる①(ChatGPT部, 大城)

こんにちは、ChatGPT部の大城です。久々の更新です。私の方は先週は宮崎、今週は沖縄とChatGPTのセミナーラッシュの真っ只中です。
(GPTs発表とか、MS Copilotも楽しそうですがなかなか触れない・・)

こちらのシリーズはローカル環境で動作するLLMについての調査のログです。


エクセルでのサマリ

後ろの方でnoteで読みやすいようにしますが、こんな感じですね。

先人の調査

Javaのきしださんに教えてもらいましたが、清水さんの検証結果が結構参考になるよ、との事でしたので貼っておきます。

一部引用するとこんな感じ。GPT-4、強い

最近話題の日本語対応LLMは何があるか?

まだ本格的な調査前ですが、いくつかピックアップします。


Japanese Stable LM Gamma 7B (10/25)

  • 公開日: 10月25日

  • 特徴: Mistral-7B-v0.1をベースに日本語データを追加学習。Mistral-7BはMistral AIの言語モデル。

  • ライセンス: Apache 2.0

  • 公開元: stability.ai

  • リンク: 詳細はこちら


ELYZA-japanese-Llama-2-7b (8/9)

  • 公開日: 8月29日

  • 特徴: MetaのLlama2に日本語を追加学習。語彙を追加することで高速化したものもあるが、今回はベースモデルを利用。

  • ライセンス: Llama 2 Community License

  • 公開元: ELYZA

  • リンク: 詳細はこちら


CyberAgentLM2-7B (11/2)

  • 公開日: 11月2日

  • 特徴: Llama2アーキテクチャを独自に英語と日本語で学習。32Kトークンに対応(5万文字程度の長い文章が扱える。ただしメモリも必要)。

  • ライセンス: Apache 2.0

  • 公開元: CyberAgent

  • リンク: 詳細はこちら


Youri 7B (10/31)

  • 公開日: 10月31日

  • 特徴: Llama2に日本語を追加学習。

  • ライセンス: Llama 2 Community License

  • 公開元: rinna

  • リンク: 詳細はこちら


LLM-jp-13B (10/20)

  • 公開日: 10月20日

  • 特徴: 独自のモデル。

  • ライセンス: Apache 2.0

  • 公開元: NII

  • リンク: 詳細はこちら


Stockmark-13b-Instruct (11/10)

  • 公開日: 11月10日

  • 特徴: ベースモデルは10/26に公開されたStockmark-13b。Llama2アーキテクチャを独自学習している。このInstructは研究目的のみ利用可能であるが、ベースモデルはMITライセンスで商用利用が可能。また、同様のチューニングを独自に施すことは可能。

  • ライセンス: CC-BY-NC-SA(研究目的のみ)

  • 公開元: Stockmark

  • リンク: 詳細はこちら

所感等:ひとまずはELYZAとCyberAgent、あとstability.aiは気になる

清水さんのベンチマークで高そうなものから追加検証、で良さそうな気がしますね。

ローカル版のLLMが動くと情報漏洩等のリスクが一気に減りますので、直近の性能差はともかく1、2年後にChatGPT-4相当の性能が出始めたらかなり有益なのでは、と個人的には考えています。
(その頃にはGPT-5とかGPT-6とか出てるかもしれないですが・・)

余談:エクセルの表->ブログ変換

ChatGPTにお願いすれば楽々ですね。いい時代です。

上記テキストを雑にコピペして以下の依頼、で作りました。
(もちろん、元の表は必要です)

それではみなさんもどうぞ良いChatGPTライフを・・!(大城)

この記事が気に入ったらサポートをしてみませんか?