記事一覧
生成系AI活用の形 絶賛提案中! in ジャンボびっくり見本市2024
Platform事業推進室 廣澤慶二
研究開発本部 吉田茂人
シャープでは、次々に登場する新たなAI技術をどのように社会実装していくべきか?という観点で、日々研鑽しており、今年の2月には東京ビッグサイトにて開催されたホテルレストランショーにて、ホテル客室内でのAI活用というテーマで自然対話と室内機器連携による新しいホテルライフの提案を出展致しました。
そして、この4月は、インテックス大阪と東京
LLM評価データセット概観
研究開発本部 海老原樹
はじめにこのような記事を書くときは、最近では ChatGPT をはじめとした大規模言語モデル(Large Language Model: LLM) の力を大いに借りています。真面目な評価をしなくても、文章力において私はChatGPTに白旗を挙げています。。。
ただ、どのLLMを使うかを決めるときには、LLMの性能を調べる必要があります。特に自分でLLMを開発するときはLL
GPT Storeをいろいろ使ってみた ~ビジネスにも使えるGPT~
研究開発本部 吉田茂人
はじめにGPT Storeは、OpenAIによって先月1月10日に公開された、カスタムAIアシスタントを作成、共有できるプラットフォームです。これは「AIのためのApp Store」とも称され、ユーザーが特定のニーズや興味に合わせたGPT(Generative Pretrained Transformer)を簡単に作成できるようにすることで、AI技術のパーソナライゼーショ
こんなところに泊まりたい!!LLM+家電連携で変わるスマートなホテルとは?
Platform事業推進部 田上文俊、中田尋経
はじめに(おそらく)はじめまして。
いきなりですが、皆さんホテルは好きですか?
私は、根っからの旅好きなので大好きな空間です。
今日のテーマは、未来のホテルライフです。
シャープのさまざまな取り組みをもとに、ホテルでのソリューション提案を紐解いていきます。
ネットワーク接続された家電ってどのくらいあるの?実はシャープは、2016年からAIoTの
小規模なLLMのキャラ付け能力を定量的に評価してみた
研究開発本部 後藤裕也
はじめに近年、キャラ付けされたチャットボットが登場しています。
弊社が2023年のTECH-DAYで展示したAIアバター"サラ"[1]も「優秀で親切なアシスタント」というキャラ付けがなされています。
キャラ付けされたLLM(Large Language Model)はより人間らしい回答が可能になり、人々の日常に寄り添うパートナーになる可能性を秘めています。一方で、大規模
LLMと仲良くなろう:LLMの個性を知って連携する ~桃太郎ってどんな話~
研究開発本部 塩見誠
はじめに
本稿では、我々が開発しているエッジデバイス上で動作するCE-LLMの回答精度を改善するためのアプローチについて紹介します。CE-LLMは複数のLLMがユーザーからの質問に応じて選択したり、連携したりして回答を生成する特徴があります。
今回は、その前段階としてLLMのプロンプト理解における個性を把握して、連携の可能性を探ってみます。
LLMの個性とはどういうこと
【速報】Google Gemini Proの実力拝見
研究開発本部 塩見誠
はじめにシリーズ投稿から外れますが、2023年12月7日にGoogleより高性能AIモデルGeminiが発表されました。
最初のバージョンであるGemini1.0はUltra、Pro、Nanoの3つのサイズに最適化されていて、Bardにおいて一部のProの機能を試すことができます。
Geminiはマルチモーダルに対応しており、多くの新しい機能を提供していますが、今回はLLM
小さくて速いLLMを作りたい ~LLM-Prunerを使ってLlama2-7b-chatをプルーニングしてみた~
研究開発本部 鈴木拓矢
はじめに現在、シャープでは家電や小型デバイスで動くLLM(Large Language Model)の実現に向けて、CE-LLM(Communication Edge-Large Language Model)の開発を進めています。本記事では、CE-LLMと関連性が深い重要技術であるプルーニング技術について紹介します。
プルーニングとは、ニューラルネットワークのニューロン
LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較
研究開発本部 海老原樹
はじめにエッジデバイスで動作するLLM(Large Language Model)に関する、シリーズ記事の第二回目は、LLMのファインチューニングについてです。ChatGPTやLLMを触ったことのある皆さんの中には、もっと賢くしたい、自分好みキャラ付けしたいと思った方は多いのではないでしょうか。そんな、「LLMの出力を賢くしたり、キャラ付けする」方法の一つに、ファインチュ
ローカル環境でRAGを用いた文書生成とCTranslate2を用いた高速化
研究開発本部 海老原樹、後藤裕也
はじめにシャープでは現在、LLM(Large Language Model)の開発、特にエッジデバイスで動作するLLM(以下、ローカルLLM)に関する様々な取り組みを行っております。本シリーズ記事ではそれらの取り組みの中から一部をご紹介させて頂きたいと考えております。(本シリーズのオープニング記事はこちら)
本シリーズ記事の第一回は、「RAG(Retrieva
生成AIの話題が尽きません。
研究開発本部 伊藤典男
5年後の生成AIの世界
生成AIの話題が尽きません。
皆さんは5年後、10年後がどのようになっていると思いますか?
LLM(Large Language Model)の能力はデータと適切な計算機リソースがあれば、単体でも向上すると思います。機能もどんどん追加されていくと思います。
一方、単体のLLMは電力的な観点で必要以上に大きくすると、電力消費とコストとがバランス