見出し画像

「ChatGPT」について(続き)

最近、「ChatGPT」等の生成AI(人工知能)に関する新聞記事やニュースを目にしない日がないほどである。

EUは、<AIが作成した文章や画像に「メード・ウィズ AI(AIで作成)」といったラベルを表示させる案も提起したほか、生成AIの提供企業に説明義務を課すことも明らかにした。>とのことである。

「ChatGPT」については、前にも記事を書いたが、「ChatGPT」自体は所詮は機械である。人格もない。賢そうに見えるが、本当のところ、人間と同じ意味で賢いわけでもない。質問に対して、単に統計的にもっともらしい、正答率が最も高そうだと判断される最適解を回答する作業を高速度で行なっているだけである。

膨大なデータを学習しているし、人間みたいにサボらないし、暗記や情報処理は得意だから、うまく利用すれば、ものすごい力を発揮する。でも、人格はない。本当の意味で理解しているかどうかも怪しい。したがって、アウトプットに最終的な責任を負うのは人間でなければならないのは言うまでもないことである。

近い将来、自動車や航空機、空飛ぶタクシー等の乗り物が自動運転されることになるのだろうが、万が一、事故が起きた際の責任をAIに負わせることはできない。AIを開発した人間、AIに運航を任せた人間が責任を負うべきであろう。当たり前の話である。

同様に、医者に代わって膨大な医療画像を解析したり、裁判官の代わりに過去の判例を調べたりする作業自体は、人間よりも機械の方がはるかに優れているであろうが、作業結果を検証して、最終的な妥当性を判断するのは人間であって機械ではない。そうでなければ、患者も被告人も納得しない。

人間は、人間にしかできないこと、機械にはできないことで勝負するしかない。産業革命時に、単純労働が機械に代替されたが、機械では対応できない高度な技能を要する熟練工の仕事は引き続き人間の手に残されたのと同じである。

AIが絶対に不得手なこと、つまり自然言語を読み解くこと、本当の意味での読解力を身につけることは、実は大多数の人間が苦手としていることでもある。「問題文が読めない」「文脈を理解できない」若者が予想以上に多いことが、「東ロボくん」開発プロジェクトで明らかになっている。

〇✕やマークシート形式でのクイズみたいなテストによる選別ばかり繰り返してきた弊害なのかもしれないが、もっと自分の頭で考える勉強、文章をしっかりと読み解く勉強を積み重ねることを通じて、真の知性を身につけた若者を養成するように、日本の教育制度自体を改めないことには、あらゆる面でAIに太刀打ちできない人間ばかりになってしまう危険性がある。

つまり、AIの発達は、明治以来の日本で当たり前のように行なってきた詰め込み教育の見直しを迫っていると考えるべきなのであって、単に「ChatGPT」の使用を教育現場で禁止すれば良いといった考え方は、問題の本質を見誤っているか、問題のすり替えを行なっているに過ぎない。


この記事が気に入ったらサポートをしてみませんか?