見出し画像

13分で振り返る「OpenAIアルトマンCEOの議会証言」

こんにちは、Choimirai Schoolのサンミンです。

対話型AI「ChatGPT」を開発したOpenAIのサム・アルトマンCEOが2023年5月16日、米議会の公聴会で、3時間にわたって行った証言。重要なポイントを13分にまとめた動画です。スクリプトと日本語字幕を一緒にシェアします。


Richard Blumenthal

They are no longer fantasies of science fiction. They are real and present the promises of curing cancer or developing new understandings of physics and biology, or modeling, climate and weather. All very encouraging and hopeful, but we also know the potential harms and we've seen them already weaponized disinformation, housing discrimination, harassment of women, and impersonation fraud.

それらは、もはやSFのファンタジーではありません。それらは現実のものであり、癌の治癒や物理学や生物学の新しい理解の発展、気候や天候のモデリングなどの約束を提示しています。しかし、私たちは潜在的な害も知っていますし、すでに兵器化された偽情報、住宅差別、女性への嫌がらせ、なりすまし詐欺などを目にしてきました。

Voice cloning, uh, deep fakes. These are the potential risks despite the other rewards. And for me, perhaps the biggest nightmare is the looming new industrial revolution. The displacement of millions of workers, the loss of huge numbers of jobs, the need to prepare. For this new industrial revolution in skill training and relocation that may be required, and already industry leaders are calling attention to those challenges.

ボイスクローンやディープフェイクなどです。これらは、他の報酬があるにもかかわらず、潜在的なリスクです。そして、私にとって最大の悪夢は、迫り来る新たな産業革命でしょう。何百万人もの労働者の移動、膨大な数の仕事の喪失、そして準備の必要性です。この新しい産業革命のために、技能訓練や移転が必要になる可能性があり、すでに業界のリーダーたちは、そうした課題に注意を喚起しています。

To quote ChatGPT, this is not necessarily the future that we want. We need to maximize the good over the bad. Congress has a choice. Now, we had the same choice when we faced social media. We failed to seize that moment. The result is predators on the internet, toxic content, exploiting children, creating dangers for them, and Senator Blackburn and I and others like Senator Durbin on the Judiciary Committee are trying to deal with it.

ChatGPTの言葉を借りれば、これは必ずしも私たちが望む未来ではありません。悪いことよりも良いことを最大化する必要があります。議会は選択を迫られている。今、私たちはソーシャルメディアに直面したとき、同じ選択をしていました。しかし、私たちはその瞬間をとらえることができませんでした。その結果、インターネット上の捕食者、有害なコンテンツ、子どもたちの搾取、子どもたちのための危険を生み出しています。ブラックバーン議員と私、そして司法委員会のダービン議員のような人たちが、それに対処しようとしているのです。

Kids Online Safety Act, but. Congress failed to meet the moment on social media. Now we have the obligation to do it on AI before the threats and the risks become real sensible. Safeguards are not in opposition to innovation. Accountability is not a burden far from it. They are the foundation of how we can move ahead while protecting public trust.

キッズ・オンライン・セーフティ・アクト、しかし。議会は、ソーシャルメディアに関する瞬間を満たすことができなかった。今、私たちは、脅威やリスクが本当の意味で感覚的になる前に、AIでそれを行う義務がある。セーフガードはイノベーションと対立するものではありません。アカウンタビリティは、それとはかけ離れた重荷ではありません。これらは、社会的信頼を守りながら、どのように前進していくかの基礎となるものです。

Perhaps the biggest nightmare is the looming new industrial revolution. The displacement of millions of workers, the loss of huge numbers of jobs, the need to prepare for this new industrial revolution in skill training and relocation that may be required. And already industry leaders are calling attention.

おそらく最大の悪夢は、迫り来る新たな産業革命でしょう。何百万人もの労働者の移動、膨大な数の雇用の喪失、必要とされるかもしれない技能訓練や転居など、この新産業革命に備える必要があるのです。そして、すでに業界のリーダーたちは注意を喚起しています。

Josh Hawley

And I think, my question is, what kind of an innovation is it going to be? Is it gonna be like the printing press that diffused knowledge and power and learning widely across the landscape that empowered, ordinary, everyday individuals that led to greater flourishing, that led above all two greater liberty?

そして、私が思うに、それはどのようなイノベーションになるのでしょうか?印刷機のように、知識、権力、学習が広く行き渡り、ごく普通の日常的な個人が力を得て、より繁栄し、何よりも大きな自由をもたらすようなものでしょうか?

Or is it gonna be more like the A-bomb? Huge technological breakthrough, but the consequences severe, terrible, continue to haunt us to this day.


それとも、原爆のようになるのでしょうか?技術的には大きな飛躍を遂げたが、その結果は深刻で恐ろしいもので、今日に至るまで我々を悩ませ続けている。

Sam Altman

Before we release GPT-4, our latest model, we spent over six months conducting extensive evaluations, external red teaming and dangerous capability testing.

最新モデルであるGPT-4をリリースする前に、私たちは6ヶ月以上かけて、大規模な評価、外部のレッドチーム、危険な能力テストを実施しました。

We are proud of the progress that we made. GPT-4 is more likely to respond helpfully and truthfully and refuse harmful requests than any other widely deployed model of similar capability, however, We think that regulatory intervention by governments will be critical to mitigate the risks of increasingly powerful models.

私たちは、その進歩に誇りを持っています。しかし、ますます強力になるモデルのリスクを軽減するためには、政府による規制の介入が重要になると考えています。

For example, the US government might consider a combination of licensing and testing requirements for development and release of AI models above a threshold of capabilities. There are several other areas I mentioned in my written testimony where I believe that companies like ours can partner with governments, including ensuring that the most powerful AI models adhere to a set of safety requirements.

例えば、米国政府は、ある閾値以上の能力を持つAIモデルの開発とリリースに対して、ライセンスとテストの要件を組み合わせることを検討するかもしれません。このほかにも、最も強力なAIモデルが一連の安全要件を遵守することを保証することなど、私たちのような企業が政府と提携できると信じている分野がいくつかあると思います。

Facilitating processes to develop and update safety measures and examining opportunities for global coordination. And as you mentioned, uh, I think it's important that companies have their own responsibility here, no matter what Congress does.

安全対策を開発・更新するプロセスを促進し、世界的な協調の機会を検討する。そして、あなたがおっしゃったように、えー、議会がどうであろうと、企業がここで自らの責任を持つことが重要だと思います。

Christina Montgomery

To that end, IBM urges Congress to adopt a precision regulation approach to AI.

そのために、IBMは議会に対し、AIに対する精密規制のアプローチを採用するよう求めています。

This means establishing rules to govern the deployment of AI in specific use cases, not regulating the technology itself. Such an approach would involve four things. First, different rules for different risks. The strongest regulation should be applied to use cases with the greatest risks to people and society.

これは、テクノロジーそのものを規制するのではなく、特定のユースケースにおけるAIの展開を管理するためのルールを確立することを意味します。このようなアプローチには、4つのことが含まれます。第一に、異なるリスクに対して異なるルールを設定することです。人や社会に対するリスクが最も大きいユースケースには、最も強力な規制を適用する必要があります。

Second, clearly defining risks. There must be clear guidance on AI uses or categories of AI supported activity that are inherently high risk. This common definition is key to enabling a clear understanding of what regulatory requirements will apply in different use cases and contexts.

第二に、リスクを明確に定義することです。本質的にリスクが高いAIの用途やAIがサポートする活動のカテゴリーについて、明確なガイダンスが必要である。この共通の定義は、異なるユースケースやコンテクストにおいて、どのような規制要件が適用されるかを明確に理解することを可能にする鍵である。

Third, be transparent. So AI shouldn't be hidden. Consumers should know when they're interacting with an AI system and that they have recourse to engage with a real person should they so desire. No person anywhere should be tricked into interacting with an AI system. And finally showing the impact For higher risk use cases, companies should be required to conduct impact assessments that show how their systems perform against test for bias and other ways that they could potentially impact the public and to attest that they've done so.

第三に、透明であること。だから、AIは隠すべきではない。消費者は、自分がいつAIシステムとやりとりしているのか、また、希望すれば本物の人間とやりとりする手段があることを知る必要があります。どこの誰であろうと、騙されてAIシステムと対話させられてはならないのです。そして最後に、影響を示すこと リスクの高いユースケースについては、企業は、バイアスのテストや一般消費者に影響を与える可能性のあるその他の方法に対するシステムのパフォーマンスを示す影響評価を行い、それを行ったことを証明することを要求されるべきである。

Richard Blumenthal

Uh, you may have had in mind the effect on, on Jobs, which is really my biggest nightmare in the long term. Uh, let me ask you, uh, What your biggest nightmare is and whether you share that concern?

雇用への影響を考えておられるようですが、これは長期的には私の最大の悪夢です。あなたの最大の悪夢は何ですか、また、その懸念を共有していますか?

Sam Altman

Like with all technological revolutions, I expect there to be significant impact on jobs, but exactly what that impact looks like is very difficult to predict.

すべての技術革新と同様に、雇用に大きな影響を与えることは予想されますが、その影響を正確に予測することは非常に困難です。

If we went back to the, the other side of a previous technological revolution, talking about the jobs that exist on the other side, um, you know, you can go back and read books of this. It's, uh, what people said at the time, it's difficult. I believe that there will be far greater jobs on the other side of this and that the jobs of today will get better.

もし、以前の技術革命の裏側に戻って、その裏側に存在する仕事について話すと、「こんな本があるよ」と言われます。当時の人たちが言っていたことですが、難しいんです。私は、この向こう側にははるかに大きな仕事があると思うし、今の仕事も良くなっていくと思う。

I, I think it's important, first of all, I think it's important to understand and think about GPT-4 as a tool, not a creature, which is easy to get confused and it's a tool that people have a great deal of control over and how they use it. Uh, and second GPT-4 and things, other systems like it, uh, are good at doing tasks, not jobs.

私は、まず第一に、GPT-4を、混同しやすい生き物ではなく、道具として理解し、考えることが重要だと思いますし、人々がそれをどう使うかを大きくコントロールできる道具だと思います。そして、第二に、GPT-4や他のシステムは、仕事ではなく、タスクをこなすことに長けています。

And so you see already people that are using GPT-4 to do their job much more efficiently, um, by helping them with tasks.

だから、GPT-4を使っている人たちは、自分の仕事をより効率的にこなすために、タスクを手助けしているのです。

Josh Hawley

Should we be concerned about models that can, large language models that can predict survey opinion and then can help organizations, entities, fine tune strategies to elicit behaviors from voters should we be worried about this for our elections?

大規模な言語モデルによってアンケート調査の意見を予測し、組織や団体が有権者から行動を引き出すための戦略を微調整できるようなモデルについて、私たちは選挙のために心配すべきなのでしょうか。

Sam Altman

Yeah. Uh, thank you Senator Hawley for the question. It's, it's one of my areas of greatest concern. The, the, the, the more general ability of these models to manipulate, to persuade, uh, to provide sort of one-on-one, uh, you know, interactive disinformation. I think that's like a broader version of what you are talking about, but giving that we're gonna face an election next year and these models are getting better.

そうですね ホーリー議員、ご質問ありがとうございます。これは、私が最も懸念している分野の1つです。このようなモデルの一般的な能力は、操作したり、説得したり、1対1の対話型の偽情報を提供したりすることです。これは、あなたが言っていることのもっと広いバージョンだと思います。しかし、私たちは来年選挙に臨みますが、このモデルはより良くなっています。

Uh, I think this is a significant area of concern. I think there's a lot, there's a lot of policies that companies can voluntarily adopt, and I'm happy to talk about what we do there. Um, I do think some regulation would be quite wise on this topic. Uh, someone mentioned earlier, it's something we really agree with.

これは重要な懸念事項だと思います。企業が自主的に採用できる方針はたくさんあると思いますし、私たちがそこで何を行っているか、喜んでお話しします。このテーマについては、何らかの規制を設けることが賢明だと思います。先ほど、ある人が言っていましたが、これは私たちが本当に同意するところです。

People need to know if they're talking to an ai, if, if content that they're looking at might be generated or might not. I think it's a, a great thing to do is to make that clear. Um, I think we also will need. Rules, guidelines, uh, about what, what's expected in terms of disclosure, uh, from a company providing a model, uh, that could have the, these sorts of, uh, abilities that you talk about. So I'm nervous about it.

人々は、自分がAIと話しているのか、見ているコンテンツが生成されたものなのか、そうでないのか、知る必要があるのです。それを明確にすることは、とても良いことだと思います。さらに、私たちには必要だと思います。あなたがおっしゃるような能力を持つ可能性のあるモデルを提供する会社が、情報開示の面で何を期待されているかというルールやガイドラインも必要でしょう。だから、私は不安なんです。

Josh Hawley

Should we be concerned about that for its corporate applications, for the monetary applications, for the manipulation that that could come from, that, Mr. Altman?

企業への応用、貨幣への応用、そこから生まれる可能性のある操作について、私たちは心配すべきなのでしょうか、アルトマンさん?

Sam Altman

Uh, yes, we should be concerned about that. To be clear, uh, OpenAI does not, we we're not off, you know, we wouldn't have an ad-based business model.

ええ、そうです、心配すべきです。はっきり言って、OpenAIは、広告ベースのビジネスモデルを構築しているわけではありませんし、そのようなビジネスモデルはありません。

So we're not trying to build up these profiles of our users. We're not, we're not trying to get them to use it more a actually, we'd love it if they use it less cause we don't have enough GPUs. Um, but I think other companies are already, uh, and certainly will in the future, use AI models to create. You know, very good ad predictions of what a user will like.

ですから、ユーザーのプロフィールを作り上げようとはしていません。実際、GPUが足りないので、もっと使ってもらおうと考えているわけではなく、もっと使ってもらえると嬉しいのですが......。しかし、他の企業はすでに、そして間違いなく将来的に、AIモデルを使って広告を作成していると思います。ユーザーが何を好むかを予測する、非常に優れた広告を作ることができるのです。

Gary Marcus

My view is that we probably need a cabinet level, uh, organization within the United States in order to address this. Um, and my reasoning for that is that the number of risks is large. The amount of. Information to keep up on is so much. I think we need a lot of technical expertise. I think we need a lot of coordination of these efforts.

私の考えでは、この問題に対処するためには、おそらく米国内に内閣レベルの組織が必要だと思います。その理由は、リスクの数が多いからです。また、その量も膨大です。情報量も膨大です。多くの技術的な専門知識が必要だと思います。このような取り組みには、多くのコーディネートが必要だと思います。

So there is one model here where we stick to only existing law and try to shape all of what we need to do, and each agency does their own thing. But I think that AI is gonna be such a large part of our future. And is so complicated and moving so fast, and this does not fully solve your problem about a dynamic world.

ですから、既存の法律だけに固執して、やるべきことをすべて形にしようとするモデルもありますし、各機関がそれぞれ独自のことをやるというモデルもあります。しかし、AIは私たちの未来に大きな影響を与えることになると思います。そして、とても複雑で、動きが速いので、ダイナミックな世界に関するあなたの問題を完全に解決するものではありません。

Um, but it's a step in that direction. To have an agency that's full-time job is to do this. I personally have suggested in fact that we should want to do this at a global way.

でも、その方向への一歩にはなりますね。このようなことを専門に行う機関を持つことです。私は個人的に、これをグローバルな方法で行いたいと考えています。

Marsha Blackburn

We've lived through Napster.

私たちはNapsterを通して生きてきました。

Sam Altman

Yes, yes. But we're,

はい、そうです。でも、私たちは

Marsha Blackburn

That was something that really cost a lot of artists, a lot of money.

それは、多くのアーティストに多大な犠牲を強いるものでした。

Sam Altman

Oh, I understand. Yeah, for sure.

ああ、理解できます。ええ、確かに。

Marsha Blackburn

In the digital distribution era,

デジタル配信の時代には

Sam Altman

I, I don't, I don't know the numbers on jukebox on the top of my head as a research release, I can, I can follow up with your office, but it's not, Jukebox is not something that gets much attention or usage. It was put out to, to show that something's possible.

私は、研究リリースとしてのジュークボックスの数字を知らないのですが、あなたのオフィスに問い合わせることはできます。しかし、ジュークボックスは、あまり注目されたり利用されたりするものではありません。しかし、ジュークボックスは、あまり注目されたり、利用されたりするものではありません。

Marsha Blackburn

Well, Senator Durbin just said, you know, and I think it's a fair warning to you all if we are not involved in this from the get-go, and you all already are a long way down the path on this, but if we don't step in, then this gets away from you. So are you working with a copyright office? Are you considering protections for content generators and creators in Generative AI?

ダービン議員が言ったように、もし私たちが最初からこの問題に関与しなければ、皆さんへの公正な警告になると思いますし、皆さんはすでにこの問題について長い道のりを歩んでいますが、もし私たちが介入しなければ、この問題は皆さんから遠ざかってしまいます。では、著作権事務所と連携しているのでしょうか?生成形AIのコンテンツ・ジェネレーターやクリエイターに対する保護を考えていますか?

Sam Altman

Yes, we are absolutely engaged on that. Again, to reiterate my earlier point, we think that content creators, content owners, need to benefit from this technology. Exactly what the economic model is. We're still talking to artists and content owners about what they want. I think there's a lot of ways this can happen, but very clearly, no matter what the law is, the right thing to do is to make sure people get significant upside benefit from this new technology.

はい、私たちはそれについて絶対に取り組んでいます。先ほどの話を繰り返しますが、私たちはコンテンツクリエイター、コンテンツオーナーがこの技術から利益を得る必要があると考えています。まさに、経済モデルです。私たちは、アーティストやコンテンツ所有者が何を望んでいるのか、まだ話し合っているところです。しかし、法律がどうであれ、この新しい技術から人々が大きな利益を得られるようにすることが、正しいことだと考えています。

Amy Klobuchar

um, with an election upon us. Uh, with primary elections upon us that we're gonna have all kinds of misinformation. And I just wanna know what you're planning on doing it, doing about it. I know we're gonna have to do something soon, not just for the images of the candidates, but also, um, for misinformation about the actual polling places and election rules.

選挙を目前に控えています。小選挙区制が導入され、様々な誤報が飛び交うことになるでしょう。あなたがどうするつもりなのか、どうするつもりなのか知りたいのです 候補者の画像だけでなく、実際の投票所や選挙規則に関する誤った情報についても、そろそろ何かしなければならないと思っているんです。

Sam Altman

Thank you, Senator. The, we, we talked about this a little bit earlier. We are quite concerned about the impact this can have on elections. I think this is an area where, Hopefully the entire industry and the government can work together quickly. There's, there's many approaches, and I'll talk about some of the things we do, but before that, I think it's tempting to use the frame of social media.

ありがとうございます、上院議員。先ほども少しお話しましたが、私たちは、このようなことが起こることを非常に心配しています。私たちは、このことが選挙に与える影響について、かなり懸念しています。この分野は、できれば業界全体と政府が迅速に協力し合える分野だと思います。いろいろなアプローチがあるので、私たちがやっていることをいくつかお話ししますが、その前に、ソーシャルメディアという枠を使いたくなるのではないでしょうか。

Um, but this is not social media. This is different. And so the, the, the response that we need is different. You know, the, this is a tool that a user is using to help generate content more efficiently than before. They can change it, they can test the accuracy of it. If they don't like it, they can get another version.

でも、これはソーシャルメディアではありません。これは違うんです。だから、必要な対応も違うんです。これは、ユーザーがコンテンツを以前より効率的に生成するために使うツールなのです。ユーザーはそれを変更することができ、その正確さをテストすることができます。気に入らなければ、別のバージョンを手に入れることができる。

Um, but it still then spreads through social media or other ways like chat. G B T is a, you know, single player experience where, where you're just using this. Um, and so I think as we think about what to do, that's, that's important to understand there. There's a lot that we can and do, do there. Um, There's, uh, things that the model refuses to generate.

しかし、そのコンテンツは、ソーシャルメディアやチャットのような他の方法を通じて拡散していきます。G・B・Tは、シングルプレイヤーで、これを使うだけの体験です。だから、何をすべきかを考える上で、この点を理解することが重要だと思います。できること、できることがたくさんあります。モデルが生成を拒否するものもあります。

Uh, we have policies, uh, we also importantly have monitoring. So at scale, uh, we can detect someone generating a lot of those tweets. Mm-hmm. Even if generating one tweet is okay.

私たちにはポリシーがありますし、モニタリングも重要です。だから規模が大きくなれば、誰かが大量のツイートを生成しているのを検知できる。なるほど。1つのツイートは問題なくてもね。

この記事が気に入ったらサポートをしてみませんか?