見出し画像

【論文を読む】「AGIのレベル:AGIへの道の進捗を具体化する」(Levels of AGI: Operationalizing Progress on the Path to AGI)を読む 後編

前回からの続きです。

前回の記事のハイライトです。
人口汎用知能(AGI)は昔から様々な定義があります。まずはAGIの定義を分析するために9つのケーススタディを挙げており、その定義を分析して6つの原則を抽出しました。また自動運転のレベルに類似させてAGIへ進むシステムを分類するための、能力の性能と汎用性に基づく階層化されたマトリックスアプローチを紹介しています。

後編は、「AGIのレベル」からの続きとなります。

AGIのレベル 続き

AGIの6つの原則のうち、原則2(「汎用性と性能に焦点を当てる」)と原則6(「単一のエンドポイントではなくAGIへのパスに焦点を当てる」)に従い、AGIのレベルでは性能と汎用性の2つの次元に焦点を当てたマトリックスレベリングシステムを紹介します。これらはAGIの中核となるものです。

性能は、AIシステムの能力の深さを指し、特定のタスクにおける人間レベルの性能と比較して示します。注意点として、レベル1の「Emerging(新興)」より上位は、すべての性能レベルにおいて関連するスキルを持つ成人のパーセンタイルをサンプルとして参照しています(例えば、英語の筆記能力のタスクにおけるレベル2の「Competent(有能)」またはそれ以上の性能は、英語に堪能な成人のセットのみと測定されます)。

汎用性は、AIシステムの能力の広さを指し、AIシステムが目標とする性能閾値に達するタスクの範囲です。

P6-7 抄訳

この分類法は、特定の評価を達成するためにほとんどのタスクで必要な最低性能を指定しています。

つまり、ある分野でレベル2の性能を持っていたしても、ほとんどのタスクにおいてレベル1であれば、より広くタスクの性能レベルが向上するまでレベル1の新興AGIと見なされます。

特定の認知領域での強力なスキルが獲得される順序は、AIの安全性に深刻な影響を及ぼす可能性があります。例えば、倫理的推論スキルがない状態で、化学工学の強力な知識を獲得してしまうのは危険な組み合わせといえるでしょう。また、性能や汎用性のレベル間の進行速度は予測が難しい可能性があることにも注意が必要です。

この分類法は、システムをその性能によって評価していますが、あるレベルの性能(例えば、特定のベンチマークに対して)を達成する能力があるシステムであったとしても、実際に合致するとは限りません。例えば、DALLE-2は、分類法によればレベル3の狭義として評価できます。それはDALLE-2がほとんどの人が描けないより高品質な画像を生成するため、レベル3の「Expert(専門)」の性能と推定するためです。しかし、システムには失敗(例えば、誤った指の数、意味不明または判読不能なテキストをレンダリングするなど)があるため、レベル4の「Virtuoso(達人)」の性能を達成することを妨げています。つまり理論的にはレベル3の「Expert(専門)」のシステムですが、実際には、プロンプトインターフェースによって最適な性能を引き出すことはエンドユーザーにとって複雑すぎるために、レベル2の「Competent(有能)」としか見なされないかもしれません。この観察は、理想化された性能ではなく、測定する生態学的に妥当なベンチマークを設計することの重要性や、人間とAIのインタラクションのパラダイムがAGIの概念とどのように相互作用するかを考えることの重要性を強調しています。

P7 抄訳

マトリックスにおける性能と汎用性の組み合わせの最高レベルはASI(人工超知能)です。レベル5の「Superhuman(超人)」の性能を、人間の100%を超える性能と定義しています。例えば、AlphaFoldは、単一のタスク(アミノ酸配列からタンパク質の3D構造を予測する)で世界のトップ科学者のレベルを上回るため、狭義のレベル5であると考えています。この定義は、レベル5の一般的なASIシステムが、どの人間も匹敵することができないレベルで広範なタスクを行うことができることを意味します。さらに、この枠組みは、既存の人間のスキルと質的に異なるタスクを実行する能力が、定義上、すべての人間(根本的にそのようなタスクを実行することができない)を上回るため、レベル5の「Superhuman(超人)」のシステムがAGIの下位レベルよりもさらに広い汎用性のタスクを実行できることも意味しています。例えば、ASIが持つ可能性のある非人間的スキルには、脳の信号を分析して思考をデコードするなどのメカニズムを通じたニューラルインターフェイス、大量のデータを分析して高品質の予測を行う(例えばオラクル能力)などの能力、または動物とのコミュニケーション能力(例えば、発声、脳波、またはボディランゲージのパターンを分析するメカニズムを通じて)が含まれるかもしれません。

P7-8 抄訳

AGIのテスト

AGIを定義する6つの原則について

AGIを定義するための6つの原則のうち2つ(原則2:汎用性と性能に焦点を当てる、原則6: 単一のエンドポイントではなくAGIへのパスに焦点を当てる)は、AI能力の深さと幅に関する議論を促進するためのマトリックス化された階層的なオントロジーを選択する上で影響を与えました。

残りの4つの原則(原則1: プロセスではなく能力に焦点を当てる、原則3:認知及びメタ認知タスクに焦点を当てる、原則4:導入ではなく可能性に焦点を当てる、原則5:生態学的妥当性に焦点を当てる)は測定の問題に関連しています。

P8 抄訳

汎用性に向けての重要な質問

汎用性の基準を構成するタスクのセットは何か?AIシステムが特定の汎用性レベルを達成するために、どの程度のタスクを習得する必要があるのか?メタ認知タスクのように、特定の汎用性レベルの基準を満たすために常に実行しなければならないタスクはあるか?

P8 抄訳

AGIの定義を具体化するためには、これらの質問に答えるだけでなく、多様で具体的であり挑戦的なタスクを開発する必要があります。このプロセスの膨大な複雑さと、多様な視点(クロス組織的及び多分野的な視点を含む)を含むことの重要性があることから、この論文ではベンチマークを提案していません。代わりに、ベンチマークが試みるべきオントロジーを明確にすることに努めています。またAGIベンチマークが持つべき特性についても説明しています。

P8 抄訳

AGIベンチマーク

AGIベンチマークは、幅広い認知とメタ認知タスク(原則3に従って)を含むことを意図しており、言語知能、数学的・論理的推論、空間推理、対人関係および内面的社会知能、新しいスキルの学習能力、創造性を含む多様な特性を測定します。ベンチマークには、心理学、神経科学、認知科学、教育からの知能理論によって提案された心理測定カテゴリーをカバーするテストが含まれるかもしれません。しかしこれらの「伝統的な」テストはまず、コンピューティングシステムをベンチマークするのに適しているかどうかを評価する必要があります。なぜなら、多くはこの文脈での生態学的及び構成的妥当性を欠く可能性があるからです。

P8 抄訳

十分に汎用性のある知能によって達成可能なタスクセットを列挙することは不可能です。したがって、AGIベンチマークは常に更新されるベンチマークであるべきです。そのため、新しいタスクを生成し、合意するためのフレームワークを含めるべきです。

P9 抄訳

リスクの文脈:自律性と人間とAIのインタラクション

AGIのレベルをリスク評価のフレームワークとして

人口超知能(ASI)に向けて能力レベルが進むにつれて、乱用リスクや整合性リスク、構造的リスクなどの新たなリスクが導入されます。とくにレベル4の「達人AGI」とレベル5の「ASI」は、リスクに関連する多くの懸念が最も発生する可能性があります。

システム的リスク、例えば、国際関係の不安定化はレベル間の進行速度が規制や外交を上回る場合に懸念されるかもしれません(ASIを達成した最初の国は、複雑な構造的リスクを生み出す可能性がある大きな地政学的軍事的利点を持つでしょう)。

AGIベンチマークが危険な能力(例えば、欺く能力、説得する能力、または高度な生化学を行う能力)のテストを含めるべきかどうかは論争の的です。しかし、そのようなベンチマークも含めるべきだと考えています。なぜなら、ほとんどのスキルは二重使用(社会的にプラスのシナリオだけでなく悪質なものにも適用可能)傾向があるからです。二重使用能力のベンチマークに関連するリスクを軽減する方法を理解することは、AI安全性やAI倫理、AIガバナンスの専門家による研究の重要な分野です。

P9-10 抄訳

「能力」対「自律性」

能力は、AIリスクの前提条件を提供します。しかしAIシステムは、特定の文脈属性(インターフェース、タスク、シナリオ、エンドユーザー)にしたがって使用されるため、リスクプロファイルに大きな影響を与えます。AGIの能力だけでリスクに関する運命を決定するわけではなく、文脈の詳細と組み合わせで考慮する必要があります。

自律性は、AGIのレベルと相関します。しかし特定のタスクや文脈(安全上の理由を含む)で、AGIのレベルが高くなっても、より低いレベルの自律性が望ましい場合があります。例えば、レベル5の自動運転技術が広く利用可能になった場合でも、レベル0(自動化なし)の車を使用する理由があります。これには、新しいドライバーへの指導(教育)、運転愛好家による楽しみ、ドライバーライセンス試験(評価)、技術故障や極端な天候イベントなどのセンサーに頼ることができない状況での使用(安全)が含まれます。

P10 抄訳
  • 自律性レベル0:AIなし

人間がすべてを行う。

例示システム:アナログ手法(例:鉛筆でのスケッチ)、非AIデジタルワークフロー(例:テキストエディタでのタイピング、ペイントプログラムでの描画)
AGIレベルの解放:なし
例示リスク:なし(現状のリスク)

P11 抄訳
  • 自律性レベル1:ツールとしてのAI

人間が完全にタスクをコントロールし、AIを使用して単調なサブタスクを自動化する。

例示システム:検索エンジンを利用した情報検索、文法チェックプログラムを利用した文章校正、機械翻訳アプリを利用した標識の読み取り
AGIレベルの解放:可能性あり(狭義の新興AI)、あり得そう(狭義の有能AI)
例示リスク:スキルの減退(例:過度の依存)、産業の混乱

P11 抄訳
  • 自律性レベル2:コンサルタントとしてのAI

AIが重要な役割を果たすが、人間によって呼び出されたときのみ。

例示システム:文書セットを要約するために言語モデルに依存、コード生成モデルでプログラミングの加速、高度な推薦システムを通じてエンターテインメントを消費
AGIレベルの解放:可能性あり(狭義の有能AI)、あり得そう(狭義の専門AI、新興AGI)
例示リスク:過信、過激化、標的への操作

P11 抄訳
  • 自律性レベル3:協力者としてのAI

目標とタスクの対話的な調整によって対等な人間とAIのコラボレーションの実現。

例示システム:チェスAIとの相互作用や分析を通じたチェスプレイヤーのトレーニング、AIの人格生成によるソーシャルなインタラクションを通じたエンターテインメント
AGIレベルの解放: 可能性あり(新興AGI)、あり得そう(競技の専門AI、有能なAGI)
例示リスク: 人間化(例:パラソーシャルな関係)、急速な社会的変化

P11 抄訳
  • 自律性レベル4:専門家としてのAI

AIが対話を主導し、人間は指導とフィードバックを提供するか、サブタスクを実行する。

例示システム:AIシステムを用いた科学的発見の進歩(例:プロテインフォールディング)
AGIレベルの解放:可能性あり(狭義の達人AI)、あり得そう(専門AGI)
例示リスク:社会全体の倦怠感、大量の労働力の置き換え、人間の例外性の低下

P11 抄訳
  • 自律性レベル5:エージェントとしてのAI

完全自律型AI。

例示システム:完全自律型AIによる個人アシスタント(まだ実現されていない)
AGIレベルの解放:あり得そう(達人AGI、ASI)
例示リスク:誤整合、権力の集中

P11 抄訳

この分類において適切な自律性レベルの選択は、基礎となるモデルの能力を考慮しても、最大限に達成可能なものである必要はありません。自律性レベルの選択における一つの考慮事項は、それによって生じるリスクです。

特定のインタラクションパラダイムを望ましいものにするためには、汎用性の特定の側面が必要になる場合があります。例えば、自律性レベル3、4、5は、AIシステムが特定のメタ認知能力(人間に助けを求めるタイミングを学ぶ、心の理論のモデリング、社会感情スキル)においても強い性能を示している場合にのみうまく機能するかもしれません。
AGIシステムとの対話の課題と機会において、「タスクの明確な指定」「プロセスのギャップの架け橋」「出力の評価を通じて人間とAIの整合性をサポートするインターフェイス」は、人間とコンピューターインタラクションの分野が追いつくことを保証するための重要な研究領域です。

P11-12 抄訳

人間とAIのインタラクションパラダイムをリスク評価のフレームワークとして

分類法は、AGIレベル、自律性レベル、リスクとの相互作用を示しています。モデルの性能と汎用性の進歩によって、追加のインタラクションパラダイムの選択(完全に自律的なAIも含む)を解放します。これらのインタラクションパラダイムは、新たな領域のリスクを導入します。モデルの能力とインタラクションデザインの相互作用により、モデルの能力だけを考慮するよりも、より洗練されたリスク評価と責任ある決定を可能にします。

モデル構築の研究は、システムの能力がAGIへの道でその性能と汎用性に沿って進むのを助けることと見なされます。そのため、AIシステムの能力は、人間の能力の大きな部分と重なります。逆に、人間とAIインタラクションの研究は、新しいAIシステムが人々にとって使いやすく、有用であることを保証することと見なすことができます。

P12 抄訳

結論

本論文では、AGIの9つのケーススタディから定義を分析し、長所と短所を特定しました。この分析に基づき、AGIを定義するために6つの原則を導入しています。6つの原則を念頭に置き、AGIへの進歩を定義するためのより洗練された方法として、AGIの5つの性能レベル(新興、有能、専門、達人、超人)と汎用性(狭義または一般的)を考慮したアプローチを紹介しました。

現在のAIシステムとAGIの定義がこの枠組みにどのように当てはまるかを反映しまています。さらに、AGIベンチマークを開発するための原則の意味合いについて説明し、また取り組むべき重要なものであると主張しました。

最後に、AGIの6つの原則とAGIのレベルが関連するリスクを巡る議論をどのように変えることができるかを考えました。特に、AGIが自律性と必ずしも同義でないことに注意しました。AGIレベルを通じた進歩によって解放されるが、それによって決定されない自律性レベルを導入しました。AGIレベルと自律性レベルを共に考慮することが、AIシステムに関連する可能性のあるリスクについてより洗練された洞察を提供することができることを示し、モデルの改善と並行して人間とAIインタラクション研究に投資する重要性を強調しました。

P13 抄訳

感想

英語論文をGPT-4を使って抄訳してきました。抄訳するにあたって、文章表現を変えたり、省いたりした部分もあるため、本来の意味が変わっている可能性もあります。あくまでも参考としつつ、実際の論文をお読みいただければと思います。

論文の感想としては、様々な文献に「汎用人工知能(AGI)」が定義されていたり、表現されたりする中、9つのケーススタディと6つの原則において改めて定義を整理した内容なんだと思いました。すでにAGIについて、しっかりとした定義がされており、それに基づいて研究や開発が行われているものと勝手に思っていました。しかしこの論文を読んでみると、やっと包括的に定義付けを始めたんだなと思いました。(AIに関する研究はまったく門外漢なため、もし間違っていたらごめんなさい…)

ただどの分野でもいえることですが、その物事を具体的に把握するためには、そのものに「名前」を付けることが必要であり、「名前」を付けたらその「意味」を付けることで、研究や開発、また広く認知されるようにもなります。その意味においては、9つのケーススタディと6つの原則から、AGIのレベル、そしてAGIを作っていくために能力に併せてフレームワークを作っていくことは大切なことだと思いました。

読んでいる方へのお願い

この内容が役に立ったという方は、「♡(スキ)」や「フォロー」をお願いします。「X」「facebook」「LINE」でシェアいただけるとさらに嬉しいです。

またGenerativeAI活用研究所では、サポートをお受けしています。活動を継続させていくために、どうかお願い申し上げます。

GenerativeAI活用研究所では、サポートをお願いしております。サポートのお金は、活動の原資(運営費や電気代などの固定費、書籍購入費など)に充てさせていただきます。活動を継続させていくために、どうかお願い申し上げます。