見出し画像

サム・アルトマンとミラ・ムラティによるAIと働き方の未来:人々はどう変わるのか?

これまでNoteで触れてきた数々の発言への答えとなる、OpenAIのCEOサム・アルトマン氏とCTOミラ・ムラティ氏のウォールストリートジャーナルのインタヴュー動画が10月21日にアップされていたので解説していきたいと思います。

人間とは何か?

インタビュアー:最初の質問はシンプルです。何があなたたちを人間にするのですか?
ミラ「ユーモア」
サム:「感情」

AGIとは何か?

インタビュアー:じゃあ、AGIって何ですか、ミラ?
ミラ:AGI(汎用人工知能)は、多くの領域で人間と同等の作業ができるシステムです。それによって生産性と経済価値が高まります。
インタビュアー:サム、なぜAGIがあなたの目標なのですか?
サム:次の数十年で人間の生活を改善する上で最も重要な二つの要素は、豊富で手頃な価格の知能とエネルギーです。AGIがそれを提供できる最良のツールになるでしょう。AGIによって各種の問題を解決したり、新しい創造的な方法で自己表現できるようになるでしょう。新しいものは変化をもたらし、それは必ずしも簡単ではありませんが、その利点は計り知れない。

AGIはいつ実現する?

インタビュアー:それでは、AGIがいつ実現するのか、そしてその実現をどうやって認識するのかについては?
ミラ&サム:恐らく次の10年内でしょう。ただし、それは少しトリッキーです。なぜなら、我々が話す「知能」という言葉には多くのニュアンスがあり、それが人間の知能とは異なる場合もあるからです。例えば、かつてはチェスや囲碁で優れたマシンが「知能」とされましたが、今はGPTシリーズのようなものがその定義を拡張しています。

「人間の中央値(median human)」とは?

インタビュアー:サム、以前AGIについて「人間の中央値(median human)」(注01)という言葉を使いましたが、これは何を意味するのでしょうか?サム:専門家が長い間AIよりも優れている分野があるでしょう。しかし、私が平均的なパフォーマンスしか出せないタスクにおいては、AIが非常に有用であることもあります。言い換えれば、専門家レベルでの仕事はしばらくの間、人間に任せたほうがいいでしょう。しかし、平均的なケース、特に自分が得意ではない場面でのAIの活用は、今後ますます進むでしょう。
インタビュアー:それは安心しました。

※注01:サムが使った人間の中央値という言葉が物議を醸し批判を浴びることになりました。その記事については下記のNoteに詳しく解説していますので合わせてご覧ください↓

GPT次のバージョンの開発について

インタビュアー:ミラ、GPT-5はどうですか?
ミラ:まだ完成していませんが、必要な人にしか情報は提供していません。
インタビュアー:なんて外交的な回答なんでしょう。もし私がそこにいたら、進捗は率直に話すと思うけど、まあ、そんな機会はないでしょうけどね。このプロジェクト、誰が始めましたか?
ミラ:常に次のステップに取り組んでいるから、まあ、進行中って感じですかね。
インタビュアー:GPTにガン見されたら人って感じるかもね!でも、GPT、あるいはGPT-33.5など、これらは全てAGIに向けたステップなんでしょうか。各段階で何を目指しているのですか?
ミラ:製品ができる前には、学術的なベンチマークに注目していました。OpenAIは、大量の計算力とデータを使って、ニューラルネットワークが次のトークンをどれだけうまく予測するかをテストしています。
実際には、次のトークンの予測自体が目的ではありません。この能力が現実世界のどのようなタスクと関連しているかが大事です。APIや将来的にはAGBT(注02)を通して製品を展開して、現実の事例が出てきました。特定の業界でお客様がどれだけ成功しているかがわかります。例えば、GPT-4はSAT(注03)やLSA(注04)といった試験で非常に優れたパフォーマンスを示しました。

※注03:文脈からは何を指しているのか不明確です。もしかすると"AGI"(Artificial General Intelligence:汎用人工知能)のことを指しているのかもしれませんが、それは推測の域を出ません。
※注04:これは米国で行われる大学入試試験(Scholastic Assessment Test)の一つです。高校生が大学に入学する際に広く受験されます。
※注05:これも複数の可能性がありますが、"Latent Semantic Analysis"(潜在的意味解析)や "LSAT"(Law School Admission Test:法学部入学試験)のことを指している可能性が考えられます。
(文字起こしの英語が正しくないため、もし文脈がAIと教育や評価に関するものであれば、"SAT"はそのままの意味で、"LSA"はおそらく"LSAT"を指している可能性が高いです。そして"AGBT"は恐らく何らかの誤りか誤解で、"AGI"か何か他の関連する用語を指している可能性があります。)

モデルの信頼性と安全性について

ミラ:モデルがどれだけ「有能」かという定義は常に進化しています。能力を高める一方で、信頼性と安全性も重視しています。これらは密接に関連しており、システムが確実に動作し、その出力を信頼できるようにすることが重要です。
次のモデルやテクノロジーセットを開発する際、スケーリングに賭け続けていますが、多様性も考慮しています。テキストだけでなく、画像や音などで世界を認識できるモデルを目指しています。

GPT-5は幻覚をおこさなくなるのか?

ミラ:GPT-5が「幻覚」の問題を解決できるかと言えば、まだわかりません。GPT-4でかなり進展がありましたが、まだ目標には遠いです。強化学習や人間のフィードバックを継続して、より信頼性の高い出力を目指しています。

学習データの著作権問題

インタビュアー:訓練データについて聞きたい、サム。もしかすると、この観客の中には、あなたたちが使用したいくつかのデータに不満を持っている人もいるかもしれません。特にハリウッド近くでは、人々はあまり喜んでいません。(注06)
サム:いくつかの観点から考えていますが、まず第一に、人々が使ってほしいと思ってくれるデータだけを使いたいと考えています。この新しい世界のモデルが皆さんにとって有用であるように、データの所有権や経済的な流れについて新しい考え方を見い出したいと思っています。

しかし、課題の一つは、データの所有者それぞれが異なる考えを持っている点です。現在は、多くのことを試していて、異なる形のパートナーシップも結んでいます。

また、これらのモデルが賢くなれば、必要な訓練データは減少すると考えています。今は、人類がこれまでに生成した全ての言葉を訓練データとして使う必要があるという考えがあるかもしれませんが、私はそれが長期的には必要ないと考えています。

Sam:人間がそれだけの情報量で賢くなるわけではないので、未来においては特に価値のあるデータが重要になると考えています。

※注05:OpenAIはChatGPTの学習用データについてニューヨークタイムズから訴訟を起こされています。詳しい解説はこちらのNoteをご覧ください↓

サムがGPTモデルの価値をどこに置くかについて解説

サム:しかし、データに対する料金を高くすることが最良の方法とは限らない。GPTモデルが人々に愛されているのは、単に多くの知識を持っているからではなく、推論能力があるからです。この推論能力は今後もますます進化していくでしょう。
ユーザーや企業が自由に経済的取引を設定できるような形にすることも可能です。たとえば、ウォールストリートジャーナルからデータを取得することはできますが、そのための特定の条件があるという形です。
要するに、これらのモデルが多くのデータを記憶しているわけではないのです。それよりも、推論能力が重要であり、これがモデルの真の価値です。

サムはMicrosoftとの関係を聞かれる

インタビュアー:あなたとサティア・ナデラ、あの100億ドルの友達、それとも敵対者ですか?
サム:うーん、完璧な関係性だとは思わないけど、敵対するほどでも全然ないですよ。たまに小さな揉め事はありますけど。我々がどんどん製品を出していると、一部で競合しそうなんですよね。でも、基本的にはこの言語インターフェースについてみんなが何かをしている状況です。APIのバージョンも我々が提供しているし、彼らも提供しています。これはお互いに有益で、みんなで協力しているんです。

GPT-4Vについて

インタビュアー: でも、まだ進化の余地はありますよね。こういうボットと深い関係を築く未来はありえるのか。それが目指しているものなの?
サム: その通りです。我々が作っているシステムは、家でも、学校でも、仕事でも、そして楽しい時間でも使われるわけですから、そのインタラクションの設計には慎重でなければなりません。そして、最終的には生産性を向上させ、創造性を高めるようなものでなくてはいけません。
ミラ: そして、技術の機能が増すにつれて、製品面でコントロールできるように、システムを私たちの望む方向に導けるようにしたいと考えています。出力が信頼できることも非常に重要です。そして、もちろん、パーソナライズされている必要があります。

インタビュアー: これは大きな責任ですよね。友達をコントロールするだけでなく、恋人にまでなり得る。このコントロールについてどう考えていますか?
サム: まず、我々が唯一のプレーヤーになるわけではないと思います。多くの人々が参加するでしょう。

AIのある生活

サム:我々には、この技術開発の進行方向に少し影響を与える機会があります。もちろん、我々自身の意見もありますが、決定権は人類や社会全体にあると考えています。また、我々はここで高度なシステムを構築する多くの関係者の一つに過ぎません。だからこそ、これは社会全体での議論になるでしょう。

競合する製品が存在すること、社会的な受容と抵抗があること、規制が行われることなど、新しい技術が誕生する過程で起こる普通の事態が繰り広げられるでしょう。そして、ある日振り返ったときに、AIがずっと我々の生活の一部であったかのように感じることでしょう。

個人的には、AIが人間の友達よりも身近になる未来には懐疑的です。私自身はそうしたくありませんが、他の人々が望むのであれば、それもありです。

パーソナライズが良いことで、個性も大事だけれど、それが「人格」になってしまうのは避けるべきです。(注06)それがAIであることを明確にするために、名前もChat GPTとしています。

※注06:OpenAIはChatGPTを恋人ロールプレイングしているアカウントを一斉バンしました。いきすぎた恋人ロールプレイをするとバンされる恐れがあるので注意しましょう。その件についてはこちらのNoteにまとめていますので合わせてご覧ください↓

ChatGPT専用デバイスについて

インタビュアー: それでは、これに最適なデバイスは何ですか?ジョニー・アイブとも話していると聞きましたが、何か見せてくれるものがあるのでしょうか。

サム: 素晴らしいアイデアはあるでしょうが、まだ具体的にはわかりません。たくさんのアイデアはありますよ。このトピックには興味がありますし、可能だと思っています。
インタビュアー: 現在の多くの考え方は、この新しい技術が新しいコンピューティングプラットフォームとして何をもたらせるのかについて、あまりよくないと感じます。スマートフォンやイヤホン、ラップトップ、スピーカーなど、現在のデバイスに何か問題はありますか?
サム: スマートフォンは素晴らしいデバイスですが、AIが可能にすることは根本的に新しいものです。(注07)具体的な答えがなくても、この点について話す・考える価値はあると思います。

※注07:話題になっていた元IPhoneのプロダクトデザイナー、ジョニー・アイブとのブレストを設けた件にたいしては改めてスマホを作る計画はないと説明しました。この件については別のNoteにまとめてありますので合わせてご覧ください↓

インタビュアー: それは人型ロボットのようには見えないんですよね。
サム: いえ、人型ロボットではないです。それはうまくいかないと思います。

資金調達についてはお茶を濁すサム

インタビュアー: さて、難しい質問に移りましょう。最近の報道によれば、会社の評価額は800億から900億ドルで、売上は10億ドルに達する見込みとのことですが、資金調達を行っていますか?
サム: 今この瞬間はしていないですが、我々の使命を達成するには大量の資本が必要です。それは前もって明確にしています。ただ、今この短い時間で資本調達について話すよりも、もっと面白い話題があるでしょう。

インタビュアー: 事業のどの部分が最も成長していますか?
サム: 明らかに製品サイドです。研究チームは才能が集まっているのが非常に重要ですが、製品サイドでは多くのことを推進しています。売上の大部分はAPIからきています。

ChatGPTのファミリープラン構想

インタビュアー: ファミリープランは作りますか?私は二つサブスクアカウントを持っているので。
サム: ファミリープランも真剣に考えています。価格設定やプランの内容をより魅力的にするためにも、モデルを効率化する計画もあります。我々ももっと多くの人に使ってもらいたいと思っています。

AIの社会的影響について

インタビュアー: では、今晩の主な議題に入りましょう。AIの社会的影響について、特に懸念される点がありますよね?
サム: それは確かに重要な問題です。現在のAIはかなり高度ですが、これがさらに進化すると多くの潜在的なリスクがあります。例えば、誰かがこのようなシステムを使ってコンピュータにハッキングしたり、新しい生物学的な病原体を設計したりする可能性があります。

インタビュアー: それは確かに怖い。どのようにしてこのようなリスクを管理するつもりですか?
サム: 我々が技術を推進する理由はそのポジティブな影響に大いに期待しているからです。しかし、その裏にはリスクも存在します。これは他の多くのテクノロジーと同じで、そのデメリットにも真剣に取り組む必要があります。

インタビュアー: リスクがあるからといって、AIを開発しないわけではないんですよね?どのような安全対策を考えていますか?
サム: そうです、リスクがあるからといって、開発を止めるわけではありません。大事なのは、リスクをしっかりと評価し、それを軽減する方向で技術を開発することです。新しい安全技術があれば、それを他者と共有します。

インタビュアー: 具体的にはどのような安全対策を考慮していますか?

サム: 大きな能力があると、それに伴うリスクも大きくなります。そのリスクを理解し、それを軽減するツールを開発するのが我々の重要な仕事です。この課題は、データ、モデル、製品、そして政策に至るまで多角的に対処する必要があります。

政治的な規制について

インタビュアー: 社会や規制との関わりはどうですか?
サム: 技術の進展は非常に速く、それに伴い社会や規制も適応していく必要があります。具体的な安全対策としては、まず実際にテクノロジーを導入し、その影響を理解し、適応していくことです。規制や著作権などの問題にも柔軟に対応していきます。

インタビュアー: サム、あなたはワシントンに頻繁に行っているようですが?サム: 実は今年は2回しか行っていません。でも、政治的な側面も重要ですから、必要な時には行きます。

インタビュアー: サム、政府や規制機関にどのような対応を期待していますか?
サム: 研究室だけでテクノロジーを安全にするのは難しいです。社会がどのようにAIを使い、適応するかが重要です。例えば、飛行機も初めは安全でなかったが、多くの工程と試行錯誤を経て今は非常に安全です。

インタビュアー: 政府に何を期待していますか?
サム: 今後超知能に近づいていくにつれて、国際的な規制が必要になると考えています。ただし、それは来年に出現するようなモデルではなく、人間を超える能力を持つようなシステムが現れた場合です。

AIの生成コンテンツの責任の所在

インタビュアー: AIによって生成されたコンテンツに対する責任は誰にあると考えますか?ソーシャルメディア企業?それともOpenAIなどのAI企業?
サム: 我々は自分たちが開発した技術に対する責任が確実にあります。特に、より高度なモデルを作成することで、デマや誤情報が拡散する可能性が高まっています。この問題に対処するための技術も開発しています。

インタビュアー: しかし、OpenAIからはまだそのようなツールは提供されていない?
サム: 確かに、99%以上の信頼性を持つ技術はすでに開発していますが、まだテスト段階です。また、誤情報問題は技術だけで解決できるわけではなく、非常に微妙な問題です。したがって、その導入方法や統合方法には慎重でなければなりません。

インタビュアー: 未来にそれは対応されますか?
サム: AIの進化に対応するためには、規制だけでなく、社会全体での議論や協調が必要です。Open Sourceの動きは良い方向だと思いますし、スタートアップも自分たちのモデルを訓練して世に送り出せるようにすべきです。規制によってこれを妨げてはいけません。重要なのは、このテクノロジーの経済的な利点や社会的な利点をしっかりと把握しつつ、将来のリスクに備えることです。

AIの生成コンテンツにデジタル透かしを入れるべきか?

サム:誤情報は単に技術の問題ではなく、非常に微妙で幅広い問題です。だから、どのようにこれを実装するかについても慎重になる必要があります。現段階で、特に画像に関してはかなり信頼性の高いツールを開発しています。これは将来的にリリースする計画です。
しかし、全ての答えを持っているわけではないので、何度か試行錯誤をすることになるでしょう。時には、リリースしたものを撤回して改良することもあります。

コンテンツに透かしなどのマークを付けることについては、人々の意見が一致していない場面もあります。特に、生成されたコンテンツに透かしを付けたくないと考える人も多いです。
また、透かしを付けることが全てのケースで有効ではない可能性もあります。例えば、画像には適用可能でも、短いテキストには適用できない場合もあるでしょう。

実際のところ、誤情報だけが問題ではありません。個々の人々に対して個別に影響を与える能力が、今後の大きなリスクとなる可能性が高いです。
この問題は単純な善悪の問題ではなく、人々がこれらのツールをどのように使いたいかについても、まだ進化し続けています。

テクノロジーについて最大の恐れと希望

インタビュアー: 最後に一つ質問をします。10年前もここにいましたが、このテクノロジーについて最大の恐れと希望は何ですか?
サム:未来は素晴らしいものになると信じています。こんなに一生懸命働いているのは、これが人類にとって重大な発明だと確信しているからです。今よりもずっと人々の生活が良くなると感じています。もちろん、予測できない影響もあるかもしれませんが、その一部を目の当たりにできる時代に生きていることは素晴らしい。

インタビュアー: では、バンカー(防災用の地下室)は持っていますか?
サム:いや、そういうものは持っていません。もしAIが暴走するようなことがあれば、地下室がどうにかなるわけではありませんから。

インタビュアー: ミラ、あなたの希望と恐れは?
ミラ:希望は、この技術で私たちの文明を進化させることです。恐れについては、すでに多くを話しましたが、今は絶好の機会があります。10年後に振り返ったとき、これを正しく進められたと思いたいです。テクノロジーを失敗させる方法はたくさんありますが、うまくやり遂げたいと思います。

いつAIはAGIになるのか?その変わり目は?

インタビュアー:AIとAGIにおける「転換点」は何ですか? 現在の状況からAGIに至る瞬間をどう定義しますか?
サム:それは連続的な過程であり、急な転換点はないでしょう。私たちは美しい指数関数的な曲線上にいるんです。
指数関数的な曲線にいると、前を見れば垂直に、後ろを見れば水平に見えます。だから、1年後には今よりも格段に印象的な場所にいるでしょう。どの瞬間が転換点だったのかを特定するのは難しい。AlphaGoだった、GPT-3だった、GPT-4だったと人々は言うかもしれませんが、実際は一歩ずつ、石積みをしてこの曲線を登っているんです。

ミラ:私はロングビーチ港の最高情報責任者ですが、何十年も前には初期のAIに関わっていました。この技術は労働の性質を変えるほどのインパクトがあると感じています。社会全体がこの議論に参加する必要がありますが、多くの人々がまだこの話に関与していません。何千年もの間、人々は自分を仕事で定義してきましたが、それがなくなる日が近づいています。

AIによってもたらされる未来

ミラ:AIは究極の技術であり、それが人々や文明にとって非常に悪い影響をもたらす可能性もあります。また、逆に非常に素晴らしい影響をもたらし、人々の創造性や生産性を高める可能性もあります。多くの人が一週間に8時間や100時間働きたいわけではないかもしれません。4時間働いて、他の時間で色々なことをしたいと考えているかもしれません。仕事における大きな変動が起きることは間違いありません。その規模や進行速度についてはまだわかりませんが、それは確実です。

ChatGPTのリリースによって、AIがもっと一般的に認知され、人々が注目するようになりました。新聞で読むだけでなく、実際にそれを使って感じることができるからです。私たちはこれらのテクノロジーをできる限り多くの人々がアクセスできるようにすることが非常に重要だと考えています。サムも以前に言っていましたが、これらのモデルをより安く、より速くする作業をしています。

人々自体がこのテクノロジーを使って体験し、それがどのように自分たちの生活や存在を変えるかを理解することが重要です。さらに、機関や組織も、労働力や経済におけるこれらの変化に備える必要があります。

サムの〆の言葉

サム:最後の言葉を預けられたので、とても重要な問題について触れたいと思います。歴史を通じて、技術革新は常に仕事市場に影響を与えてきました。約100年から150年ごとに、多くの種類の仕事が変わる、または消えることがあります。これ自体は怖くないと思っています。むしろ、これは進歩の一環であり、新しい、より良い仕事が生まれると考えています。

問題になるのは、この変化がどれだけ速く起こるかという点です。二、三世代の間には、社会や仕事市場は大きな変化に適応できるでしょう。しかし、多くの人が自分の仕事を好きだったり、変化を嫌ったりします。だからといって、「未来は明るいよ、約束する。でも君は失うかもしれない」というメッセージは、受け入れがたいものがあります。

私は人々が何もすることがなくなるわけではないと強く信じています。働きたくない人は働かなくてもいいでしょう。しかし、多くの人々は、自己表現や社会貢献に大きな満足を感じています。それは人間にとって根本的な願望であり、進化がそこまで速く進むわけではありません。

ただ、この過渡期には何らかの対策を講じる必要があります。ユニバーサルベーシックインカムを提供するだけでは不十分です。人々はこの変化に影響を与える「エージェンシー」を持つ必要があります。そして、これからの未来は共同で設計すべきです。

それが私たちがこのテクノロジーを積極的に展開している理由の一つです。まだ全員がこの話に参加しているわけではありませんが、年々その数は増えています。このようなツールを広く手に入れてもらうことで、人々は未来について考え、その話に参加できるようになります。

この記事が気に入ったらサポートをしてみませんか?