アートスペース361°トーク「生命としての人工知能」

■ 人工知能は生命なのか? そして、我々はどのように向かい合ったら良いのか?
 ― 汚れているのは、土なんです

アートスペース361°の有料ノートでは、本スペースで行われたトークイベントを書き起こし、解説を加えたものを配信していきます。
今回のテーマは「人工知能」。
ひとつのシステムとしてか、ひとつの生命体としてか。我々は人工知能とどのように付き合っていけば良いのでしょうか?

まずは人工知能とは何か、次に生命とは何かについてお話しします。最後に人工知能と生命について理解した上で、人工知能は生命なのか。どう付き合っていったら良いのかについて考えていきます。
工学専門のサイエンスコミュニケーター、津坂がお送りします。

有料部分には、参考文献や生命としての人工知能を考える際のキーワードとなる用語などもまとめてあります。


■まとめ

・生命の定義は「自己増殖と代謝の能力を持つもの」。その定義に従うと、人工知能は生命としての能力を持っていない
・「観測者(観察者)効果」「サピア=ウォーフの仮説」のように「人工知能は生命である」と「言葉で」定義すれば、それは生命を持つことになる。意識や意志のあるなしも同様(科学的な定義を至上とするならば、身も蓋もないけども)
・人工知能の学習元となるデータベースは、ヒトの記憶や行動、判断や考え方が「言葉で」記載されている。となると、ヒトは「データベースを提供する存在」として定義できる。この定義が新たな死生観を生むかもしれない
・ 人間はノイズだらけで不完全。だが、データベースにノイズがなければ人工知能は幅広い思考ができない。ゆえに、ヒトは必要な存在
・人工知能が学習という性質を帯びる以上、学習元となるデータベースがより良いものである必要がある。=汚れているのは土なんです論。だからデータがより良きものとなるよう努めましょう


■目次

なぜこのような講座が必要なのか?
― 「のび太のテロ」を防げ! 科学技術の限界と倫理的問題について知ること
人工知能とは何か
― 現状では「データから適切な予測を行う情報処理技術」
人工知能が「何であって欲しいのか」を考えるにあたり出てくる、4つの問題
― 意識と意志、身体と心の関係、生命/生物かそうでないか、これらを理解した上でどう付き合っていけばいいのか
生命とは何か
― 自己増殖でき、自分でエネルギーを取り込んで消費するもの
生命ではないなら、どのように接すれば良いのか
― 人工知能にデータを提供する贄としてのヒト
なぜ人工知能は存在するのか、なぜヒトに似たものを作るのか
― ヒトは限りある存在だから、生存欲求として何かを遺す
人工知能の生存本能
― ミームを宿した記憶の器


■ なぜこのような講座が必要なのか?
 ― 「のび太のテロ」を防げ! 科学技術の限界と倫理的問題について知ること

ユーザは作られたもの、自分が気に入ったものを何も考えずに使えばいい。トラブルはすべて作った企業の責任。技術をどう発展させて利用していくのかなんて、私たちには関係ない―
これが現状だと思います。

しかし昨今、科学技術によって環境にダメージを与えてしまったり、大震災や原発事故のように生命や生活を脅かされることが浮き彫りになってきました。
今使われている科学技術が果たして正しい目的で使われているのか、私たちに良い価値を与えてくれるものであるのか。専門家以外の人々も考えなくてはならない時期に来ています。
科学技術に関する目的と価値、倫理的問題と限界について私たちは知る必要があります。でなければ、万が一科学技術が関わる問題に巻き込まれたときに正しい判断ができなくなってしまう。

これが「のび太のテロ」。
身の丈にあわない技術に翻弄されて、トラブルを巻き起こすこと。
(命名はインターネット崩壊論者のtss_ontapさん)

ドラえもんにおいて、のび太くんは毎回なんらかのトラブルに巻き込まれています。そしてドラえもんに泣きついて、問題を解決するための道具を借りる。その結果のび太くんが道具の使用方法を間違えたりして、さらなるトラブルを巻き起こします。

これはのび太くんが「何の目的で使用する道具なのか」「どんな価値を提供してくれる道具なのか」「トラブルが起こらない、正しい使い方は何なのか」を詳しく知らないまま使っていること、使ったらどんなことが起きるのか想像する力を持たなかったことが原因です。

ドラえもんの説明不足もトラブルの原因のひとつですが、恐ろしいのは、のび太くんが道具を使った結果について想像できていないこと。いえ、そもそも結果について想像することが必要だと理解していないこと。あれだけ毎回トラブルを引き起こしているのにも関わらず。
科学技術によって様々な問題を引き起こしてしまっている私たちは、果たしてのび太くんを笑えるでしょうか。

科学技術によって社会が変化する「技術決定論」、技術の使い方はあくまで社会が決めるものだという「社会決定論」。技術が悪いのか社会が悪いのか。
ワケの分かっていないものをワケの分からないまま、便利だからと使うことでトラブルを引き起こす。そんな「のび太のテロ」は他人事ではありません。
科学技術の限界と倫理的問題について、専門家以外も知る必要があります。振り回されないよう、覚悟して準備しておくために。


■ 人工知能とは何か
 ― 現状では「データから適切な予測を行う情報処理技術」

人工知能とは何か。人工知能学会の定義では、以下の2つの立場を指します。
1.人間の知能そのものをもつ機械を作ろうとする立場
2.人間が知能を使ってすることを機械にさせようとする立場

1.は脳の働きを調べてコンピュータ上で再現できれば、知的な振る舞いのようなものが現れるのではという立場。SF作品で描かれる人工知能をイメージして頂ければ分かりやすいかと思います。
2.は囲碁をする、入試問題を解く、オススメを聞くと教えてくれるBotなど、問題を解くプロセスを分析しマネをすることで、知的な存在がそこにあるかのようにみせるものを指します。

技術によって人を進化させるというのは、道具が持つ性質のひとつでもあります。人工知能は私たちが今まで処理することができなかった膨大なデータを参照して推測したりできますから、予想もつかない状況になる可能性は十分にあります。その衝撃はインターネットが普及したとき以上だろうとも言われています。

トランスヒューマニズム―いわゆる「技術で人間卒業」。技術と人が結びつくことで、人の能力が大幅に拡張したりその結果社会が大きく変わる。そして文化そのものも変わって、ヒトが進化していく。人工知能もそのひとつである、と。

しかし現状での基本的な処理は、膨大なデータを読み取って分類・予測・最適化を行うことです。人類を滅ぼすとか新しい知能が誕生するなどと大きなことが言われていますが、「データから適切な予測を行う情報処理技術」に過ぎません。処理速度がヒトを超えるほど高速であるため、囲碁対戦など特定のコトについてはとても秀でた能力を発揮します。が、すべてのコトにおいてヒトを凌駕している(する)わけではありません。

そもそも70億人すべてを人工知能が従えたり滅ぼそうと思ったら、膨大なコストと手間がかかります。効率を重視する人工知能がそんなことをそもそも考えるでしょうか?非効率だと引きこもって、禅問答でも始めそうです。
人工知能による思想誘導の結果ヒトが自滅したら、きっと人類はそこまでの種なのでしょう。

人工知能のニュース記事を見たことがあるならば、ディープラーニングという言葉を聞いたことがあるかと思います。ディープラーニングは、一般には「データの特徴を人工知能が自分で見つけ出して分類して、適切な予測を返してくれるもの」として知られています。
確かにその通りではあるのですが、プログラミングする上では、まだまだ特徴や分類もある程度ヒトがサンプルを与えて教えてあげないといけません。

なりより、人工知能が予測を行う際に使うデータ。これはヒトが過去行った、言動・判断・思考などが言葉で記載されています。もし仮に新世紀エヴァンゲリオンのMAGIシステムのように、人工知能を倫理的な決断を下す場合に使うとしたらどうでしょう。そのとき、使用するデータがとても倫理的とはいえないものであったら。

さて、ここからが重要。人工知能の脅威とは何なのか。人工知能そのものの存在や暴走ではありません。もっと根源的なものです。

ここから先は

7,872字

¥ 200

この記事が気に入ったらサポートをしてみませんか?