見出し画像

JDLA生成AIテスト>生成AIの技術>特徴(4/6)

2023年は生成AIが大注目を浴びる1年でした。
G検定でおなじみのJDLA(日本ディープラーニング協会)も生成AIに関する新しい検定試験を作ったので、受験することにしました。
試験日は12月2日(土)です。

こちらの記事に書きました通り、生成AIの試験は生成AIを使って準備を進めていこうと思います。順不同で書いていきますので、後日マガジンにまとめようと思います。

さて、今回は生成AIの技術についてです。

大規模言語モデルのアラインメントを理解している。

アラインメント (Alignment)、人間のフィードバックによる強化学習 (RLHF)、インストラクション・チューニング (Instruction Tuning)

JDLAシラバスより

生成AIでまとめた内容は以下の通りです。

まずはBingから。

大規模言語モデルにおけるアラインメントは、入力と出力の間の対応関係を特定することを指します。これにより、モデルは入力と出力の間の相互作用や依存関係を理解し、適切な翻訳や生成を行うことができます。アラインメントの特定には、セルフアテンションやアテンション機構が使用されます1。 RLHF(Reinforcement Learning from Human Feedback)は、人間のフィードバックを使ってAIモデルを強化学習する手法を指します。Instruction Tuningは、人間が生成したテキストをモデルに入力し、モデルの出力を修正することで、モデルの精度を向上させる手法です2

Bing

次にChatGPT4

大規模言語モデルのアラインメントは、モデルの出力が人間の意図、価値観、目的と一致するように調整するプロセスを指します。ここで挙げた用語を使って説明します。

### アラインメント(Alignment)

アラインメントとは、モデルの振る舞いが人間の利用者の意図と倫理的規範に「合致」している状態を指します。つまり、モデルが予測や推薦を行う際に、人間の価値観や期待を反映し、不適切な出力を最小化するようにトレーニングされていることが求められます。アラインメントの目的は、AIが人間の利益を損なうことなく、信頼性と責任ある方法で行動できるようにすることです。

### 人間のフィードバックによる強化学習(RLHF)

人間のフィードバックによる強化学習(Reinforcement Learning from Human Feedback, RLHF)は、人間の監視者が提供するフィードバックを基に、モデルの行動を形成する学習アプローチです。このプロセスは、まず初期のモデル出力に対する人間の評価や修正を集め、次にそのフィードバックを使って報酬関数を構築します。報酬関数はその後、強化学習アルゴリズムによってモデルの行動を指導するのに用いられます。これにより、モデルは人間の嗜好や判断を模倣し、より望ましい出力を生成するように訓練されます。

### インストラクション・チューニング(Instruction Tuning)

インストラクション・チューニングは、モデルが特定の指示や指令に従って適切な応答を生成できるように調整するプロセスです。この方法では、大量のインストラクション・レスポンスのペア(例えば、質問とその答え、指令とその実行)を含むデータセットを使ってモデルをファインチューニングします。このプロセスにより、モデルはより精確に指示を理解し、期待されるタスクを実行する能力を向上させます。

これらのアプローチを組み合わせることで、大規模言語モデルは人間の利用者が期待するような行動を取りやすくなり、AIの倫理的使用における信頼性を高めることができます。特にRLHFとインストラクション・チューニングは、モデルの振る舞いをより具体的な人間の期待とアラインメントさせるのに役立ちます。

ChatGPT4の回答

JDLAのシラバスに従って学習を続けると、生成AIの理解が深まります。

続けましょう!

よろしければサポートをお願いします。 経済の記事を書くための資料購入する際に使わせていただきます。