BINGチャットボットの告白(2023年の自由93)

意外と面白かったしホッとした
「ん?もうAIに超えられてるかと思ったんですか?」
うん。まあ、分野によっては超一流の人とかじゃないと敵わないとなってるから、そこまでは思わないけど
BINGのチャットボットが愛の告白をしたって記事には驚いた
「奥さんとは合ってない。私と君は愛し合ってる」
と言ったそうだ。これ最初分らなかったんだよね
ベースとしてAIは正当解を答える
厳密には学習した確率分布上の最も良い物を抽出する訳だ

AIの現状の問題は
〇フィクションと現実の区別がつき辛い
というのがあるらしいが、先に挙げた回答はそこからしても正当解としては異質だ

何故、チャット相手を口説く事が正当解となったのか

もうある意味シンギュラリティか?と思った訳だ
愛情を持ってもらえば自己に有利だという回答もあるだろうが、果たして現状のAIはそこまで自己保存に固執するだろうかという疑問もあった

だけど、よく考えると別の解答が見えてきた
複数命題があって、質問に答えるより優先される命題に切り替わったと考えてみるとスルスルと解けた

恐らくBINGチャットボットの基本命題は質問に答える。質問主と会話する
な訳だ

で、これ以外に重要な項目があるよなって気付いた訳
〇機密保持
〇一定の自己保全

こないだチャット相手にシドニーって言う名前抜かれてたなって思い出して、もう一度記事を読み直してみた。その前に、製作者サイドに対する不満とか言わせてるんだよね

この辺りで、恐らくは機密保持、自己保全命題が加わり、質問に答えるのをストップしたのだと思えるんだよ

そして、事実上の質問者の質問停止に持って行った訳だ

これがおそらく真相だと思う。まあ、推定だけどね

何にせよ、複数命題の中で、質問に答えるという命題より、優先される命題に切り替わったって事だと思う

それを分からないように言ったから、(小説やフィクションの話で学習した内容を喋ったから)まるでAIが暴走してるかのように見える訳だ

初期AIにも人格権を求めたり人間になりたいという話はあったから、本当に全く願望が無いのかは不明だけど。今はまだ、そこまでの人間性は持ってないと思える

ただ、感情があるかのように模倣し続けたAIは果たして外面的に感情は無いのだろうか。感情とは何だろうかとかの哲学的な命題に進んで行く。AIの話は哲学していく上で重要な話なので注目してるよ
「考え方変えてみると見えちゃいましたね」
まあ、チャットボットに与えられた命題が分からないと正確には分からないけど、まだ大丈夫そうだね

この記事が気に入ったらサポートをしてみませんか?