見出し画像

生成AIの話題が尽きません。

研究開発本部 伊藤典男

5年後の生成AIの世界

生成AIの話題が尽きません。
皆さんは5年後、10年後がどのようになっていると思いますか?

LLM(Large Language Model)の能力はデータと適切な計算機リソースがあれば、単体でも向上すると思います。機能もどんどん追加されていくと思います。

一方、単体のLLMは電力的な観点で必要以上に大きくすると、電力消費とコストとがバランスできなくなると言われておりますし、各企業が、様々な視点でLLMを設計しています。となると、複数のすこしずつ特徴の違うLLMが乱立する状態となることが容易に予想されます。クラウドLLMは、175B(Bは10億)とかいうレベルのパラメータサイズですが、最近発表される独自生成されたLLMのパラメータサイズは、13Bとか7Bとかが良く聞く数値です。

専門LLM群

今後5年間のうちに、こうしたLLMのどれかが一人勝ちする世界はあまりないかなと思っています。むしろ、専門的なLLMがいくつも存在する中で、使い手が必要な知識を持つLLMを選んで(組み合わせて)使うのではないかと思っています。

LLMが扱う情報については、公的なものと私的なもの(特定の組織内部のものも含む)が区別されますが、クラウドLLMに私的なデータ、秘密情報で学習をするとLLMは、その情報を用いたメッセージを生成してしまうため、情報漏洩の観点でこうした情報の活用は今は推奨されていないと思います。 

しかしながら、個人向けあるいは企業向けLLMに秘密情報を学習させて、このLLMのパワー活用することができればこの問題は解決可能です。例えば、一般公開されている情報であればクラウドLLMを使えば良いと思いますし、企業では企業が持つ情報も含めて学習された企業LLMが、また、個人は個人情報も含めて学習された個人LLMを使うということです。 

ユーザに近いLLM

こうした中で、シャープは、今、ユーザに近いところに置かれるLLMに着目しています。複数のLLMを組み合わせ、人間と自然なやり取りができる応答の早いパーソナルAIを実現し、家庭内の様々な機器に搭載することを夢見ています。

ユーザに近いところで使える、LLMの実現性はどの程度あるのでしょうか?

まず、LLMは、先にお話した通りいろいろ出ています。ただし、現時点でエッジで使えるハードでこれを動かすと、数トークン/秒という状態です。また、このくらいの大きさのLLMは、クラウドLLMのような豊富な機能は持ち合わせていません。応答の性能を見ても、まだまだこれからという状態です。

今でも、PCと適切なハード(GPU)を使えば、応答に要する時間が早いLLMを作ることは可能です。また、スマホの例を見なくてもスピードの課題は時間が解決しうると思います。

エッジLLMシステム

11/10~11/12に東京ビッグサイトで開催するSHARP Tech DayでクラウドLLMと連携して動くエッジLLMシステムを展示予定です。現物の動きは実際に見て頂いてご判断頂ければと思いますが、エッジLLMを動かすために使った技術、開発技術のうち、皆様のお役に立ちそうなトピックを何回かに分けてご紹介したいと思います。

お楽しみに。


この記事が気に入ったらサポートをしてみませんか?