AI界の“ゴッドファーザー” ヒントン博士の警告

AIの短期的な危険とは何だと考えるか?

フェイク動画やフェイク画像、偽の音声が世の中にまん延してしまい、いったい何が真実なのか分からなくなってしまうことです。これはとても深刻な問題になるでしょう。何が真実か知ることが不可能になるんですから。

AIの長期的な危険とは?

AIが私たち人間より賢くなった場合に、人間を支配しようとしてくる可能性があります。

AIによる支配とは?何が起きるのか?

いまは、とてつもなく不確実な時で、我々には何が起きるのか分かりません。たとえるなら霧の中を運転するような感じです。

AIが人間より賢くなったら?

もし、AIが人間より賢くなり、私たちを支配できるようになったら、それは人類の終わりを意味する可能性があります。

核戦争と同じく人類が直面する最大の脅威の1つでしょう。それは避けなければいけません。防げないのかもしれませんが、防げるのだとしたらそうすべきです。

今後のプランは?

人間を超越するAIは、もうすぐそこまでやってきているかもしれません。どう対処していくべきか、解決策を見つけなければなりません。世界中の若い研究者たちの背中を押し、連携して対応していきたいと思っています。

以上