見出し画像

霞ヶ関の役人が「ChatGPTで国会答弁作って官僚の残業削減!」は難しいと思う訳

どうも、霞ヶ関の役人のyasuokaです。大体10年目くらいです。コンピュータサイエンス系の学位も持っています。深層学習については、Huggingfaceとか使って遊んだりしているくらいです。とても専門家の方々には及ばないですが、役人の中では多少知ってる方ではあると思います。
そんな僕が、永田町・霞ヶ関でのChatGPTの大流行に思うことを少しお話ししたいと思います。間違いなど多々あると思いますが、そこは鼻で笑っていただいたのち、こっそりDMで教えていただければと思います。

ズバリ結論としては、タイトルにある通り、ChatGPTを国会答弁に使おうというのはあんまりいいアイディアじゃないんじゃない?ということです。理由は以下の3つ。

  1. GPTで作っちゃうと「なぜこの答弁か」を説明できない(致命的)

  2. 答弁案を作るのは別に大した負担じゃない。5分でできる。マジで。

  3. 仮に使うなら、必要なのはGPTのような生成系AIではない。別のモデル。

さて、ではこれらの理由について具体的にお話しします。

答弁は「なぜ」が命。

役人にとっては常識ですが、多分多くの方が(それこそコンピュータサイエンティストが)知っているようで知らないであろうことは、少なくとも役人の作る答弁案は、かーーーなり論理的に緻密に作られているということ。なんとなくではないんです。すごく繊細なんです。

例として、この前のG7での首相演説のワンフレーズを末端の係員が作ってるケースを考えましょう。国会答弁ではないですが、まあ同じようなものです。なお、僕はこの関係の担当ではないので、その点はご認識・ご了承ください。

今、我々は、ロシアによるウクライナ侵略という国際秩序を揺るがす課題に直面しています。今のような厳しい安全保障環境だからこそ、法の支配に基づく自由で開かれた国際秩序を堅持し、平和と繁栄を守り抜く決意を世界に示す、それが本年のG7議長国である日本に課された使命と言えます。

https://www.kantei.go.jp/jp/101_kishida/statement/2023/0521kaiken.html

例えばこの「法の支配に基づく自由で開かれた国際秩序」とか「ロシアによるウクライナ侵略という国際秩序を揺るがす課題」とか。こういう言葉は、色んな過程を経て一字一句まで気を使われてまとまったフレーズなので、基本的には変えてはいけないんです。少なくとも最初の案の段階では。これが例えば「法に従って人々が自由に活動できるような国際社会」とかだったら、意味がほぼ同じであって、日本語としても問題なかったとしても、困るんです。ただーし、chatGPTは無邪気に後者を提案してくると思います。困っちゃいますね。自由な発想も時には必要ですが、ちょっと自由すぎるかなと。

こういったフレーズを使う時は、基本的には出典をつけます。何月何日に誰が誰の質問に答えた答弁から引用してます、とかですね。で、基本的にはコピペ。変えたりしない。だから、答弁を作る時に大変なのは、文章を書く作業よりも、この出典を引っ張ってくる作業ですね。

答弁案を作るのは一瞬、むしろ負担は別のところ。

上の例だと、多分作るのは一瞬です。だってもう自分で作文するところがほぼないんですもん。5分、いや、もしかしたら1分。コピペして出典つけて、できましたと。ただ、ここからが長いんです。

例えコピペであっても、ここからまず省内の了解をゲットしなくてはなりません。係長に説明して、課長補佐に説明して、課長に説明して、また関係する別の課があればそこにも説明して、課長を連れて今度は局内の了解を取り、今度は省内の了解を取り、という感じです。何人説明すんねんと。

更に厄介なのは、こういう人たちを捕まえること。スケジュール見て空いてるところを捕まえなくてはなりません。偉い人になればなるほどレアポケモンです。捕獲が困難になります。また、一人で説明、というのも偉い人になればなるほどあり得なく、パーティに課長補佐や課長が加わっていきます。となると、パーティの面々と説明相手の予定をマッチさせながら、この作業を進めなければなりません。更に更に、今回のように総理答弁である場合、ここに多分他省庁とのすり合わせと、その後に総理官邸に持って行って説明する作業も加わります。途方もない作業です。

この説明過程で、いっぱい意見をもらいます。そんな時に大活躍するのが出典。「この言い回しでいいのかな?」とか言われたら、すかさず「ここは、先日のこの答弁を参考にしています」と言えば、「なるほど、過去に言ってるのであれば問題ないね」となります。つまり、論理的に緻密に作れば作るほど、説明が楽になるのです。相手もそれを求めています。ここで、「ChatGPTに任せたので、出典はインターネット上の数多のデータですかね、英語中心の。」とか言っちゃうと、まあ聞いてる方としてはそりゃ不安になりますよね。大丈夫かと。ダメって言われたら作り直して最初からやり直しですね。仕事増えてるやん、チーン。

なんとなく体感で言えば、作文自体の負担は、全体の1%くらいです。仮にめちゃくちゃGPTをうまく使って活用したとしても、maxでそれくらいしか負担軽減にはならない、ということです。作文が大変なパターンもありますが、その場合はそれこそ出典が一層大事。GPTでは更に難しいのでは。国会答弁を作る過程は、政府内での合意作りと言えます。作文よりも説明過程が大事で、時間がかかりますし、論理的であることが必須なのです。

ChatGPTが使えないっていうなら、AIは使えないの?

そういうわけではありません。AIが効率化できる場面は、いーーーーっぱいあります。例えば作文が単なるコピペでは無理で、いろんなリソースを引っ張ってきて参考にして、割としっかり作文しなければならないパターンがあります。こういうものは作文後の説明も大変です。時間がさらにかかります。この場合、質問から関連する過去の色んな発言を検索して教えてくれたりとかしてもらえれば、そりゃありがたいんじゃないでしょうか。 仮にこういったタスクを行う場合は、GPTよりもBERTとか別のモデルの方がいいんじゃないですかね。GPTは相性が悪そうです。Transformer系のAIに限らなければ、スケジューリングとか効率化してもらえればありがたいと思いますし、AI、というかコンピュータを使った効率化はいくらでもできると思います。

僕が言いたいのは、GPTじゃないんじゃないか、ということです。君じゃない感が否めない。GPTは大量のデータを元にした予測で話していると言う点では、かなり人間に近いと思います。つまり、良くも悪くもGPTさんの意見になっちゃうんですね。そりゃ大学のレポートとかだと大活躍でしょう。だって意見を聞かれているんですもん。でも、国会答弁は違います。誰も答弁を最初に作文する係員の意見を聞いてないんです。ちょっと相性が悪いですね。

以上です。深層学習の専門家の方から見れば、「国会答弁って要は作文だろ、生成系AIでつくりゃええやん」となるのもわかります。それを受けて政府関係者が「やってみたらええんとちゃうの」となるのも至極当然の反応だと思います。ですが、両方を僅かながら多少知っている僕からすると、なんかちょっとピントがずれちゃってるんじゃないかと思うところがあり、ここに書かせていただきました。ChatGPTをはじめAIの最近の進化の凄まじさにワクワクしている一人として、また色々と問題を抱えながらも走り続ける役所機構に所属する一人として、少しでも貢献できればなと思っています。色々間違ってたらすみません。

もしこの記事が好評だったら、役所でのAIの使い道についても少し書こうかと思います。好評じゃなかったとしても、気が向けば書こうと思います。ただ、僕のやる気が出るので、よろしければポチッとLikeを押していただければ嬉しいです!

この記事が気に入ったらサポートをしてみませんか?