見出し画像

AGIという蜃気楼に踏み込む

OpenAIのサム・アルトマンクーデター騒動が落ち着き、徐々にいろんな噂が出回っています。

投稿時点でもサムの解任に至る動機は不明ですが、可能性として挙げられているのは大きく下記のとおりです。

  1. サムが進めているGPTsが、取締役の一人(アダム)の本業に不利益を与えるリスクを感じた

  2. サムが以前から取締役に相談せずに不審な行動をとっており(特にMicrosoftとの蜜月)、取締役の大半から危険視されていた

  3. サムが取締役の一人(ヘレン)を批判したことで衝突し、Helenがクーデターを計画した

  4. サムのやり方だと、OpenAIの目的に反して、人類に害を与えるAGI(Artificial General Intelligence(人工汎用知能))になると取締役がリスクを感じた

3について補足しておくと、効果的利他主義を本業でも推し進めるヘレンが、2023年10月にAIのリスクに関する論文(こちら)を共著で発表しており、それがOpenAIの不利益になるとサムから突っ込まれて衝突したのではないか?という話です。

実際に、ヘレンと(当初首謀者とされた)イリヤは新取締役から外れ、唯一残ったのがアダムです。ただ、このあたりは信念と利害がもつれており、ワイドショーネタになりそうなので、それ以上の推理は控えておきます。

今回は4にあるAGIについて触れてみたいと思います。

元々OpenAIは、彼らの言葉を借りると、
「人類の利益になる安全なAGIをつくる」
ことを目指したNPOです。ChatGPT以降、商業活動が目立っているので忘れそうですが、一応公式サイトを貼っておきます。

OpenAI公式サイト

なかでも、AGIという言葉が今回のクーデター以降で再注目されてます。

大体の意味合いとしては、人類の知能と同等かそれ以上の汎用性を持つAIです。昔は「強いAI」という言い方もされてました。

クーデター直前に、革新的な技術論文がOpenAI内で提示されていたという話が出てきており(Q*(スター)と呼称)、これもAGIの実現に近づくため、上記の4の理由にかかわってきます。(Q*を説明する技術書を読んでないのでそれ以上は割愛。)

ただ、AGIという言葉が使われるほど、不安になってきます。

AGIは、AI同様明確な定義が定まっていないふわっとした言葉であるため、解釈によって無駄な論争を招いてしまいます。

そもそもAIという用語も、有識者でワークショップを行う資金を得るための企画書内で、ジョン・マッカーシーが使った造語です。
学術的な定義はなく、言ってみればキャッチコピーに近いです。

そんなAGIの持つ危うさに、つい最近Google DeepMindの研究者が切り込もうとする論文が公開されてます。

ここでは、AI能力を判断する歴史を振り返りつつ、AGIを体系化する現実的な案を提示しています。

関心がある方はぜひ上記を閲覧してほしいですが、個人的には「チューリングテスト」の発展版という印象を持ちました。

似ている理由は、中身やプロセスは気にせずに結果に基づく判断を基準にしよう、ということです。
ただ、異なるのはチューリングテスト(一定数人をだませばOK)ほど具体的に判断する方法論までには踏み込んでおらず、あくまでその結果をレベル水準に分解しましょう、ということです。

下記にそのレベル表を貼っておきます。

上記論文内の表

これを受け入れるかどうかはともかく、安易にAGIかどうか?という短絡的で不毛な議論よりはましかなと思います。

AGIという用語が登場する文脈を読み解く自分の能力をもっと磨かねば、と強く感じた今日この頃でした。


この記事が気に入ったらサポートをしてみませんか?