人気の記事一覧

Mergekitを使ったMoE(Mixture of Experts)作成のテクニック

3か月前

Google Colab:Mergekitによる日本語モデルMoEの作成

4か月前

混合専門家モデル(MoE):トランスフォーマーの効率とスマートな進化

OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM