擬人化と確率的な言語モデル
なんだか、あまりにも、「ChatGPTくん」と擬人化して呼びすぎて、当たり前に人格のようなものがあるような気持ちになってきた。そして大体、その時「ペッパー君」みたいな顔が脳裏に浮かんでいるような気がする。
同じ話を2度してみる。
と同じ問いかけをしてみる。
私「5月をテーマにした、簡単なトランプゲームを作ってください。」
明らかに、前回と答えが違っている。
確率的な言語モデル
この話をしている時、ChatGPTの頭の中には、完成したゲーム像、というものが存在していない。とりあえず、聞かれたことに対して、一番よさそうな、とっかかりになる文や文節を導き出し、次にその文節に続きそうな文や文節を繋げていくことで、文章を構成していく。
そしてこの「良さそう」とか「続きそう」とかいうものを、確率で決めているわけなのだけど、毎回、候補の中で一番確率が高そうなものを選び続けているとすると、2回の同じ質問に対して、同じ回答が返ることになる。
そうなっていないのは、ある一定の確率で、2番目とか、3番目に高いと思った確率のものを選ぶようになっているからだ。そして、次の文や文節を予測する際には、これまでに生成した全ての文や文節から予想をしていくため、ドミノ倒しのように、連鎖して生成される文が変わっていく。
この振る舞いを、「人間的だ」と思ってしまうのだから、不思議なものだ。
まとめ
今回生成してくれた、「五月トランプ」というゲームは、なかなかに凄い。トランプの、例えば「ハートの3」を出して、それが「5月っぽい」かどうかを話し合うのだ。なかなかに大喜利力が試されることだろう。
というわけで、今日は、昼間の打ち合わせで、全く理解していないトピックを、他人に話すうちにだんだんと理解して、最後の方はあたかも最初から知っていたかのように話すさまが、自分の話し方がいかにも確率的な言語モデルっぽいなと思ってしまった、というエピソードから、記事を書いてみた。
というわけで、今日は、私とChatGPTのどちらが人間らしいか、という話でしたとさ。今日はこのへんで。ほなね!
例のAI画像のコーナー
「梅の花、新緑、蛍、こいのぼり」が5月っぽいらしい。梅の花なんて疾うの昔に全部落ちていると思うのだけれども。
"Generate an image capturing the essence of May with elements such as plum blossoms, fresh greenery, fireflies, and koi fish banners. The scene should depict a tranquil spring landscape, with blooming plum trees, lush foliage, twinkling fireflies against the night sky, and colorful koi fish swimming gracefully in a pond. Capture the beauty and serenity of May in this picturesque depiction."
鯉のぼりってやっぱ生成できないんだな。
いただいたサポートは、きっと、ドイツアマゾンからの送料に変わると思います。 温かいご支援、お待ちしております。