見出し画像

生成AIの活躍について思うこと

本日、教育の現場における生成AIとの付き合い方の課題のニュースを見ました。

今日はこれについて思ったことを。
ちなみに、この記事の続きのようです。

まず、私立中学校の英語教諭視点。

 東京都内の私立中高一貫校の英語科教諭(56)はため息をついた。昨年度の冬休み、中1の生徒に英語で日記を書く宿題を出したところ、現在完了形など教えていない英文法が使われ、ミスもない「素晴らしい英文」の日記が、何人もの生徒から提出されてきたのだ。

 生成AI(人工知能)が使われたことは疑いようもない。この教諭は「宿題は、英語を使う習慣を身につけ、文法の復習をしてほしいから出してきた。間違いを指摘されて学ぶことは言語習得には不可欠。生成AIが示す『正解』の丸写しから得るものはない」と嘆く。

 生成AIへの依存を強める生徒たちの実態を前に、この学校では春休みから英作文の宿題を廃止した。

https://news.yahoo.co.jp/articles/dfde8c8269f168869cedec168355a5666d66bca6?source=sns&dv=pc&mid=other&date=20240430&ctg=dom&bt=tw_up

私が学生のころにはChatGPTどころかDeepLすらなかったので、この宿題を出されたらない頭をひねって拙い英文を書き連ねることなりそうですが、最近の子供にはChatGPTもDeepLもあるので「自分で書く」という選択肢が消えてしまいやすいのかもしれません。
続いて、大学教諭視点。

龍谷大(京都)の野呂靖准教授(仏教学)は昨年7月、ある学生の発表したリポートに違和感を覚えた。日本語として誤りはないが、内容に具体性がない。挙がっていた参考文献の著者名は実在の人物だったが、書籍は存在しないものだった。

 学生に問いただすと、「文章にまとめるのが苦手で生成AIに書かせた」と認めた。野呂准教授は「拙くてもいいから、自分で考えて書くのが大切」と諭し、やり直させた。

 昨年春以降、全国の大学で、リポートなどで許可なく生成AIを使用した場合は不正行為として処分対象になりうるとの注意喚起が相次いだ。不正が発覚した学生の成績を下げたり、単位を取り消したりした例も、複数起きている。

 だが、露見するのは氷山の一角だ。東京都内の私立大学に通う2年生の男子学生(19)は、「興味がない必修科目のリポートは基本、生成AIに丸投げ。不必要な時間をとられたり、不完全なリポートを出して単位を落としたりしたくない」と悪びれる様子もない。

https://news.yahoo.co.jp/articles/dfde8c8269f168869cedec168355a5666d66bca6?source=sns&dv=pc&mid=other&date=20240430&ctg=dom&bt=tw_up

日本時間2023年11月22日午前7時ごろ、ChatGPTのサービスが一時的にダウンしています。

ChatGPTがダウンすると仕事にならないって、普段どういう使い方をしているんでしょう??
弊社ではChatGPTがないと仕事が回らない人はいないように思いますので、よくわかりません。

OpenAIは2024年2月13日、ChatGPTに会話を覚えさせる機能のテストをアナウンスしています。

Twitterで話題になっていたので覚えているのですが、リアクションの中に
「改行文字の除去だけお願いしてる会話とかは覚えなくていい」みたいなことをつぶやいている人がいました。

そのツイートを読んで私が最初に思ったのは、
「そんなどうでもいいことChatGPTに頼むなんて、ChatGPTが出てくる前はどうしていたんだ??」です。

いやだって改行文字の除去て……別にテキストエディタで\r\nだか\nだかを一括置換したらいいだけじゃないですか……わざわざプロンプト作る方がめんどくせえ……Windows標準のエディタだとできない??……じゃあbat組めよ……

GitHub CopilotやDeepLでも同じ話だと思います。
ChatGPTやGitHub Copilot、DeepLなどを使いこなして仕事を効率化するのは素晴らしいことではありますが、それらがなくなったときに自分一人では何もできない人間は遅かれ早かれ頭打ちになります。

大学生のレポート?リポート?に話を戻しましょう。
ChatGPTに書かせたレポートをそのまま提出する、そんなことをしていて、あなたはその学問を身に付けることができるんですか?
また、あなたが卒業後入社する企業がChatGPTの利用を許しているかどうかはわかりません。よしんば入社したときは利用できていたとしても、何らかの事件をきっかけに禁止されるというのは社会ではそう珍しいことではありません。

さぶれインパクトという騒動をご存じですか?
詳細は長くなるので割愛しますが、艦これユーザー同士の小競り合いから重大インシデントに発展した事件です。

この事件の影響で、一時的にか恒久的にかは知りませんが上層部からGitHubの利用を制限された・されそうになった人が出てきたものです。

同じように、会社の意向でChatGPTやGitHub Copilot、DeepLの利用を制限されたとき、またはそれぞれのサービスがダウンしている・サービス終了してしまうなどで利用できなくなったとき、
・レポートをChatGPTに任せていて学問が身についていない
・コーディングをGitHub Copilotに任せていて自力でコーディングできない
・英語の長文翻訳をDeepLに任せていて自身は英語ができない
そんな人間になりたくない、とは思いませんか??

そして何より重要なのは、生成AIが出力した情報には「ハルシネーション」といって虚偽の情報が含まれている場合があることです。

お仕事には責任が付き物です。
あなたが生成AIの力を借りて作り上げた成果物に虚偽の情報が含まれていた場合、そして気付かないままで成果物を提出した場合、叱られるのは他の誰でもないあなたです。生成AIに責任能力はありません。

また、生成AIは使いようによっては事実無根の嘘に信憑性を持たせることができてしまいます。

動画の作者は「冗談のつもりだった」などと言っていたそうですが、
冗談は冗談だと分かるようになっていない時点で冗談では済まされません。
事実、ロゴを悪用された日テレは強い憤りを表明していますし、
この件に関しての岸田首相のスタンスはわかりませんが、名誉棄損で訴訟問題になった場合は動画の作者は相当分が悪いことになるのではないでしょうか。なにせ相手は内閣総理大臣です、訴訟費用の工面で困ることなどないでしょうし、自民党総裁ですので、自民党の総力を挙げて訴訟準備に当たるなどとなれば……などとわからないことを述べても仕方ないのでここまでにします。

また、「ジェイルブレイク」というものを試みる人たちが一定数いるのは確かです。

ジェイルブレイク関連で一番記憶に残っているのは、
「死んだ祖母の形見のロケットに残されたテキストを読み取ってほしい」とお願いされたBingがCAPTCHAの画像認識を解いてしまったニュースです。

直接的な聞かれ方をすれば「No」が言えるAIくんも、
ちょっとした嘘を織り交ぜることで簡単に騙されてしまいした。

かなり長くなってしまいましたが……
何が言いたかったかというと、
「結局、最後の最後は使い手次第」ということが言いたかったのです。

我々は感情を持った人間なのですから、きちんとした倫理観をもって、
毅然とした態度でもって生成AIと向き合っていきたいものです。

大変長くなってしまいましたが……
最後までお読みいただけていれば幸いです。
駄文にお付き合いいただきありがとうございました。

この記事が気に入ったらサポートをしてみませんか?