sergicalsix

エンジニアをやっています。

sergicalsix

エンジニアをやっています。

記事一覧

固定された記事

層に着目したLLMの口調の学習について

こちらは【第3回】生成AIなんでもLT会の登壇内容のnoteです。 👇【第3回】生成AIなんでもLT会のリンクはこちら 👇登壇資料はこちら(PDF化した時にサイズ変更があり、少…

sergicalsix
2か月前
23

NNの枝刈り&対照学習に関する論文紹介[Cohere論文紹介No.5]

論文名 Studying the impact of magnitude pruning on contrastive learning methods arXivリンク https://arxiv.org/pdf/2207.00200 ひとこと要約 NNの枝刈り&対照学…

sergicalsix
3日前
3

NNの低ランク学習の論文紹介[Cohere論文紹介No.4]

論文名 Exploring Low Rank Training of Deep Neural Networks arXivリンク https://arxiv.org/pdf/2209.13569 ひとこと要約 NNの低ランク学習において、スペクトル初…

sergicalsix
6日前
3

自然言語処理における効率的な手法のサーベイ論文紹介[Cohere論文紹介No.3]

論文名 Efficient Methods for Natural Language Processing: A Survey arXivリンク https://arxiv.org/pdf/2209.00099.pdf ひとこと要約 自然言語処理における効率的…

sergicalsix
8日前
3

LLMの強化学習における新手法:TR-DPOの論文紹介

論文名 Learn Your Reference Model for Real Good Alignment arXivリンク https://arxiv.org/pdf/2404.09656.pdf ひとこと要約 Direct Preference Optimization (DPO…

sergicalsix
2週間前
11

LLMの学習データの刈り込みに関する論文紹介[Cohere論文紹介No.2]

論文名 When Less is More: Investigating Data Pruning for Pretraining LLMs at Scale arXivリンク https://arxiv.org/pdf/2309.04564.pdf ひとこと要約 LLMの学習…

sergicalsix
3週間前
1

LLMの継続学習における論文紹介[Cohere論文紹介No.1]

論文名 Investigating Continual Pretraining in Large Language Models: Insights and Implications arXivリンク https://arxiv.org/pdf/2402.17400.pdf ひとこと要約…

sergicalsix
3週間前
5

Cohere関連の論文について

はじめに以下のQiitaで宣言した通り、これからCohere関連の論文を紹介させていただければと思います。Cohere関連の全40件精読して紹介するのは少し大変ので、興味があるも…

sergicalsix
1か月前
9

In-context Learningの性能調査の論文紹介

論文名 Long-context LLMs Struggle with Long In-context Learning arXivリンク https://arxiv.org/pdf/2404.02060.pdf ひとこと要約 長いIn-context Learningの性能…

sergicalsix
1か月前
9

LLMのアルゴリズム的推論能力向上の論文紹介

論文名 Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models arXivリンク https://arxiv.org/pdf/2404

sergicalsix
1か月前
4

言語モデルの記憶のメカニズムについての論文紹介

論文名 Localizing Paragraph Memorization in Language Models arXivリンク https://arxiv.org/pdf/2403.19851.pdf ひとこと要約 言語モデルの記憶のメカニズムにつ…

sergicalsix
1か月前
1

携帯のGPUでLLMを効率的に実行する論文紹介

論文名 Transformer-Lite: High-efficiency Deployment of Large Language Models on Mobile Phone GPUs arXivリンク https://arxiv.org/pdf/2403.20041.pdf ひとこと…

sergicalsix
1か月前
6

AIの有害発言の検閲に関する論文紹介

論文名 Recourse for reclamation: Chatting with generative language models arXivリンク https://arxiv.org/pdf/2403.14467.pdf ひとこと要約 AIチャットボットに…

sergicalsix
1か月前
2

パーソナライズされたVLMの論文紹介

論文名 MyVLM: Personalizing VLMs for User-Specific Queries arXivリンク https://arxiv.org/pdf/2403.14599.pdf ひとこと要約 パーソナライズされたVLMであるMyVLM…

sergicalsix
1か月前
3

LLaMA-Factoryの論文紹介

論文名 LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models arXivリンク https://arxiv.org/pdf/2403.13372.pdf ひとこと要約 簡単かつ効率的にLL…

sergicalsix
1か月前
3

LLMの強化学習をLoRAによって効率化する論文紹介

論文名 PERL: Parameter Efficient Reinforcement Learning from Human Feedback arXivリンク https://arxiv.org/pdf/2403.10704.pdf ひとこと要約 計算コストが高いL…

sergicalsix
1か月前
10
層に着目したLLMの口調の学習について

層に着目したLLMの口調の学習について

こちらは【第3回】生成AIなんでもLT会の登壇内容のnoteです。

👇【第3回】生成AIなんでもLT会のリンクはこちら

👇登壇資料はこちら(PDF化した時にサイズ変更があり、少しバグっているようです。)

はじめにLLMのファインチューニングをしていると、ふと「学習した情報ってどこに保存されているんだろう?」と思うことはありませんか?

LLMの知識がどこに保存されているのかというお話は、

もっとみる
NNの枝刈り&対照学習に関する論文紹介[Cohere論文紹介No.5]

NNの枝刈り&対照学習に関する論文紹介[Cohere論文紹介No.5]

論文名

Studying the impact of magnitude pruning on contrastive learning methods

arXivリンク

https://arxiv.org/pdf/2207.00200

ひとこと要約

NNの枝刈り&対照学習に関して調査した論文。教師あり学習と比較して対照学習の方が枝刈りの影響を受けやすく、特に学習の早期から枝刈りを行うと

もっとみる
NNの低ランク学習の論文紹介[Cohere論文紹介No.4]

NNの低ランク学習の論文紹介[Cohere論文紹介No.4]

論文名

Exploring Low Rank Training of Deep Neural Networks

arXivリンク

https://arxiv.org/pdf/2209.13569

ひとこと要約

NNの低ランク学習において、スペクトル初期化、L2正則化などの調査を行なった。

メモ

タスクとモデル

CIFAR-100やImageNetなどの画像認識タスク

モデル:Wi

もっとみる
自然言語処理における効率的な手法のサーベイ論文紹介[Cohere論文紹介No.3]

自然言語処理における効率的な手法のサーベイ論文紹介[Cohere論文紹介No.3]

論文名

Efficient Methods for Natural Language Processing: A Survey

arXivリンク

https://arxiv.org/pdf/2209.00099.pdf

ひとこと要約

自然言語処理における効率的な手法について包括的にサーベイしている。データ、モデル設計、事前学習、ファインチューニング、推論と圧縮、ハードウェア活用、評価、モ

もっとみる
LLMの強化学習における新手法:TR-DPOの論文紹介

LLMの強化学習における新手法:TR-DPOの論文紹介

論文名

Learn Your Reference Model for Real Good Alignment

arXivリンク

https://arxiv.org/pdf/2404.09656.pdf

ひとこと要約

Direct Preference Optimization (DPO)を改良したTrust Region DPO (TR-DPO)を提案。

メモ

背景

従来のアライン

もっとみる
LLMの学習データの刈り込みに関する論文紹介[Cohere論文紹介No.2]

LLMの学習データの刈り込みに関する論文紹介[Cohere論文紹介No.2]

論文名

When Less is More: Investigating Data Pruning for Pretraining LLMs at Scale

arXivリンク

https://arxiv.org/pdf/2309.04564.pdf

ひとこと要約

LLMの学習データの質を3つの評価指標で評価し、データを刈り込むことでLLMの性能を上げられることを明らかにした。またシンプ

もっとみる
LLMの継続学習における論文紹介[Cohere論文紹介No.1]

LLMの継続学習における論文紹介[Cohere論文紹介No.1]

論文名

Investigating Continual Pretraining in Large Language Models: Insights and Implications

arXivリンク

https://arxiv.org/pdf/2402.17400.pdf

ひとこと要約

LLMの継続学習においてドメインの内容や順序などについて調査。ドメインを類似度順で継続学習した方がド

もっとみる
Cohere関連の論文について

Cohere関連の論文について

はじめに以下のQiitaで宣言した通り、これからCohere関連の論文を紹介させていただければと思います。Cohere関連の全40件精読して紹介するのは少し大変ので、興味があるものだけピックアップしていきます。

論文のソースはこちら。

内容まずはClaude 3 Opusに40の論文を入れて2,3行で要約させて概観を理解し、論文のグループ分けしてみます。ここでは筆者が興味を持った論文のみを記載

もっとみる
In-context Learningの性能調査の論文紹介

In-context Learningの性能調査の論文紹介

論文名

Long-context LLMs Struggle with Long In-context Learning

arXivリンク

https://arxiv.org/pdf/2404.02060.pdf

ひとこと要約

長いIn-context Learningの性能についてベンチマークを作成して調査した。長いIn-context Learningにおいてタスクの難易度が上がるに

もっとみる
LLMのアルゴリズム的推論能力向上の論文紹介

LLMのアルゴリズム的推論能力向上の論文紹介

論文名

Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models

arXivリンク

https://arxiv.org/pdf/2404.02575.pdf

ひとこと要約

LLMのアルゴリズム的推論能力を向上させるための新し

もっとみる
言語モデルの記憶のメカニズムについての論文紹介

言語モデルの記憶のメカニズムについての論文紹介

論文名

Localizing Paragraph Memorization in Language Models

arXivリンク

https://arxiv.org/pdf/2403.19851.pdf

ひとこと要約

言語モデルの記憶のメカニズムについて調査。125Mの言語モデルの記憶には第一層の特定のアテンションヘッド(memorization head)が重要な役割を持っている可能

もっとみる
携帯のGPUでLLMを効率的に実行する論文紹介

携帯のGPUでLLMを効率的に実行する論文紹介

論文名

Transformer-Lite: High-efficiency Deployment of Large Language Models on Mobile Phone GPUs

arXivリンク

https://arxiv.org/pdf/2403.20041.pdf

ひとこと要約

モバイル端末のGPUで大規模言語モデル(LLM)を効率的に実行するTransformer-Li

もっとみる
AIの有害発言の検閲に関する論文紹介

AIの有害発言の検閲に関する論文紹介

論文名

Recourse for reclamation: Chatting with generative language models

arXivリンク

https://arxiv.org/pdf/2403.14467.pdf

ひとこと要約

AIチャットボットによる有害発言の検閲に対して、ユーザーが有害さの閾値を調整できる仕組みを提案。30人の参加者を対象とした小規模な実験で提案手

もっとみる
パーソナライズされたVLMの論文紹介

パーソナライズされたVLMの論文紹介

論文名

MyVLM: Personalizing VLMs for User-Specific Queries

arXivリンク

https://arxiv.org/pdf/2403.14599.pdf

ひとこと要約

パーソナライズされたVLMであるMyVLMを提案。少数の学習データ(3-5枚)で特定の個人の情報をVLMに統合可能。

メモ

VLMの課題

現在のVLMは一般的な知識を

もっとみる
LLaMA-Factoryの論文紹介

LLaMA-Factoryの論文紹介

論文名

LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models

arXivリンク

https://arxiv.org/pdf/2403.13372.pdf

ひとこと要約

簡単かつ効率的にLLMのファインチューニングを行うためのフレームワークであるLLaMA-Factoryの紹介

メモ

LLaMA-Fact

もっとみる
LLMの強化学習をLoRAによって効率化する論文紹介

LLMの強化学習をLoRAによって効率化する論文紹介

論文名

PERL: Parameter Efficient Reinforcement Learning from Human Feedback

arXivリンク

https://arxiv.org/pdf/2403.10704.pdf

ひとこと要約

計算コストが高いLLMのRLHFをLoRAで効率化する手法(PERL)を提案

メモ

RLHFは有効なLLMのファインチューニング手法だ

もっとみる