人気の記事一覧

【読書日記R6】3/13 心ははるか遠くへ。雑誌二選

Perplexityをもとに、複数の大規模言語モデルを切り替えて推論するシステムの簡単なコード実装

2か月前

イーロン・マスク xAIによる「Grok-1」リリース!明らかに重すぎる重みが重い

1か月前

人生で初めて買った婦人画報3月号・特集「私の源氏物語」 & MOE4月号・特集「源氏物語と平安の女性たち」

4週間前

大規模言語モデル: Mixture of experts(MOE)のMixtral-8x7B-Instruct-v0.1で遊ぶ

3か月前

大規模言語モデルにおける混合エキスパートモデルの一種 Branch-Train-Merge (BTM)の勉強

2か月前

大規模言語モデルの設計について、scaling lawやアンサンブルをキーワードに考える勉強メモ

2か月前

買うつもりもなく手にとって開いたら、なんだかすごくワクワクして、「これは買いか?無駄使いか?」のチェックをしてから、レジへ。Eテレの「カラフルな魔女」は大好きです。ヨシタケシンスケさんの書き下ろし新作つき。不意打ちくらって吹き出したり、じんわり染みたりします。買って良かった。

Google Colab で Mixtral-8x7B-v0.1 を試す

4か月前

【読書記録】思わず考えちゃう

3か月前

混合専門家モデル(MoE):トランスフォーマーの効率とスマートな進化

OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM

水槽の中に住み、陸上の学校に通う『さかなくん(しおたに まみこ著)』#よみもの

言葉の持つ力、優しさ

DeepSpeedの使い方をまとめてみた

今話題の絵本を読んだら心がほわっとした話

1年前

ヒグチユウコのカレンダー

3か月前

キューライスさんの絵本ふろく「ニンジンジン」めあてで、『MOE (モエ) 2022年12月号 』を購入。 スヌーピーも好っき。 #ニンジンジン #キューライス #MOE

地方雑誌は、巨大な広告産業の端っこにいるんだろうけど、とても楽しんでやってます。

1年前

先月号のさくらももこさんと、今月号の谷川俊太郎さん。大好きな人が続いて登場のMOE。 地球には納まらない概念と、 生命への慈悲。 広くて深い壮大な世界を教えてくれるお二人はどこか似ているなと思う私。 繰り返し、何度でも読み続けるであろうお二人の言葉は宝物。

1年前