『ChatGPT「10年後には大量の仕事が自動化」もAIの限界も明らかに。』~【新しいweb3ビジネスのアイディアのタネ】2022.12.10
■ChatGPTをリアルの端末に接続してタスクを実行させる試みが進行中、「10年後には大量の中産階級の仕事が自動化されるだろう」と嘆くネットユーザーも
ChatGPT、いやぁ使うほどに凄いなと思わされます。
どのくらい優秀か、どんなことができるのか、どうやって使い始めるのかなどは上記の記事をお読みください。
Google検索の代わりに使うことも、より創造的に使うことも、話し相手として遊ぶことも、プログラミングさせることも、アイディア次第で人間を1人雇うよりずっと生産性が高い使い方ができてしまいます。
そのため上記のように「10年後に大量の中産階級の仕事が自動化されるのはほぼ避けられない」というのも現実に起こり得るなと私も思います。
もちろん人間の仕事が他にシフトするだけでAIのせいで大量失業時代に突入ってことではないと思いますが、これまでの感覚よりずっとAIがあることを前提としたキャリアパスを描くことの重要性は高まっていくはずです。
しかし、ChatGPTも現段階での限界は見えてきています。
■ChatGPTには複雑なタスクをこなす性能が足りない
ピザを注文する、というタスクはChatGPTにとってはまだ難しいのです。
ピザの種類、枚数などを注文者のニーズや目的に合わせてヒアリングし、届けてほしい日時と場所を確認し、注文可能なピザ店を探し、ピザ店ごとの手順に従って注文手続きをする。決済手段を選び、領収書をもらい、経費精算手続きも完了させる。
有能な秘書なら「ピザを注文して」の一言だけで上記のようなタスクがあることを瞬時に理解して対応します。
経験の浅い人だと、これらすべてのタスクをひとつひとつ指示してあげないといけません。
今のChatGPTは今のところ、タスクをこなすという点においてはこの経験の浅い人レベルかそれ以下です。
■それっぽく答えるが、個性的な答えは返せない
ChatGPTを使うと「すげー!」と思う反面、同時に「それっぽいな」という確信できない感想を持つ回答も非常に多いのが特徴です。
それっぽさには確かに驚かされるのですが、回答が事実なのか怪しいことが多く要確認であるし、尖った独創的なアイディアではなく無難で無個性な返答を返すことに物足りなく感じることも多くあります。
まさしくそのように感じます。
(むしろ人間にもそういう人が多いよな、とも思いますが。)
危険性もはらみますし、それがある意味「人間らしい」部分でもあるのですが、尖った個性的な「人格」を持ったチャットAIに進化する方向での挑戦は、今のChatGPTの限界を突破するのに必要だろうと思います。
とはいえChatGPTが一見とてもすごいので「そこまですごくない」と言われても腑に落ちないかもしれません。そこでChatGPTの無個性感や現状の限界がわかる実験をやってみました。
■「相談」をChatGPTに投げかけると無個性の限界がわかる実験
という悩み相談が九州大学生協に投稿され、生協職員の回答が超尖ってて面白い!という記事です。
生協職員の方がどんな尖ったおもしろ回答をしたのかは後ほどご紹介しますが、同じ相談をChatGPTに投げてみるとこんな回答を返してきました。
AIが回答した内容だという観点で見れば、彼氏側の感情を推察していること、コミュニケーションをスムーズにしようとする目的を持った回答であること、時間を決めてLINEすることで億劫さを限定的にする解決策の提示など、驚かされる部分は確かにあります。
しかし、なぜ彼女が一方的に謝らなければならないのかに違和感を感じますし、相談者である彼女に寄り添わず「怒られた」ことに注目しすぎて彼氏側にへりくだる方向での解決策ばかり提示しているようにも見えます。
結果的に表面上の「LINEでのやりとりをスムーズにする」ことに対する回答であって悩みへの回答ではないし、彼女と彼氏の関係性や心情には踏み込まないという点ではありきたりで無難です。
生協職員の方はどのような回答をしたかというと、
LINE公式アカウントを個人で使って褒め倒し自動返信させるという超尖ったソリューションを提示していますw
しかも「話が通じない変人」と見なされることも織り込み済み。
なのにLINEが面倒だという彼女の心情側に寄り添って如何にLINEを開かなくてよくなるかを実現する回答でもあるし、即レスを求める彼氏に対して気持ちが伴わない機械的な即レスをすること=ボットの自動返信と同じじゃん、彼女をボット化するような要求だよね、という彼氏に対する皮肉にも読めます。
相談というコンテンツは古来から人気で、回答者の個性を踏まえた上で相談することも多いものです。
無個性なチャットAIに相談すると、事象に対する解決策が返ってきます。
人間に相談すると、個性的かつ心情に寄り添った解決策が返ってくることを期待します。
このあたりもまだChatGPTでは実現できていない部分です。
■チャットAIが今たりないものは今後の人間とAIの進化の方向性
現状のChatGPTの限界をまとめると以下の通りです。
・一見それっぽい回答の事実確認が必要
→デバッグのように事実確認をするAIが登場しそう。
→人間には、それっぽい回答に違和感を感じて見抜く力が必要。
・タスクに分解して実行する能力はまだ足りない
→ものによって今でも対応できるものはあるし、今後も増えるはず。
→人間も、一言の指示から意図をくみ取りタスクに分解するコミュニケーション能力が今後も重要性を増す。
・心情に寄り添い個性を期待された相談への回答はまだできない
→より個性を重視したAIに進化する可能性が高い。
→人間には、相談者が何を求めているのかをくみ取る力が必要。
今のところまだChatGPTは「ツール」に留まっています。つまり使い手である人間側の応用力で性能を活かした使い方を編み出す必要があるフェーズです。
しかし生身の人間をチームスタッフとして構成する会社などでも、それぞれの人の得意不得意を見てうまくワークするようにマネジメントしますし、チャットAIは現段階でもかなり人間に近い応用のさせ方を受け入れる性能を持っているとも言えます。
AIが自律的に動作するようになるのも時間の問題でしょうし、社会システムがAIと連携することを前提に再設計されるのも時間の問題です。
そんな時代の変化の中では、AIを上手に使いこなす・AIと上手に付き合っていくスキルを磨くことの重要性は一層増していきますが、人間の独特の個性はもっと重要です。処理性能ではAIに対して人間が勝ち目がないのは明らか。これからはいかに個性的であるかが求められる時代になっていくのだろうと思います。
この記事が気に入ったらサポートをしてみませんか?