人気の記事一覧
大規模言語モデルをフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)
10bクラスの大規模言語モデルが、ファインチューニングを経てタスクを解けるようになるメカニズムを探るメモ
ファインチューニング条件の検討による、10bクラスの大規模言語モデルの理解・回答能力についての検証と考察
(10b程度の)大規模言語モデルが「種々のスキル」を身につけるために必要な要素や学習量を考えるメモ
10b程度のモデルをファインチューニングする日記 (逐次更新)
Google Colab で LLaMA-Factory を試す
【誰でも出来る!】ChatGPTのファインチューニングにノンエンジニアが挑戦してみた!
一部のGPT3.5系は、選択肢問題をきちんと解けないかも、という検証
【蒸留GPT】すぐに試せるファインチューニング~gpt3.5_turboをgpt4レベルにする方法
アメリカのトップ企業はどのように生成AIを導入・活用しているか?
サイバーエージェントにおけるWeights & Biasesを用いた日本語LLMの開発
【蒸留GPT】GPT3.5でGPT4を超える方法〜超実践的ファインチューニング〜
LLMのファインチューニング で 何ができて 何ができないのか
GPT-4を作れって上司に明日言われたら作れますか? #WandB
みこちゃんChatGPT(生成AI)お勉強第2フェーズに突入する!
知識の限界を突破!「RAFT」によるドメイン特化型AIの可能性
OpenAI API の ファインチューニングガイド
【論文瞬読】大規模言語モデルのファインチューニングが変わる?LoRAの可能性に迫る