ファクトチェックと生成AIの相性について考える
※この記事は、私の所属団体等は一切関係ない、個人の所感である。
つい先日、日本ファクトチェックセンター(JFC)の古田大輔編集長がX(旧Twitter)にこのようなポストをした(アーカイブ)。
私はこれを読んで心底驚いた。ファクトチェックに生成AIを使う…!?
生成AIは自らをファクトチェックする機能を持たないはずだ。故に、偽情報であろうが迷いなく「執筆」する。ここに落とし穴がある。「新機能GPTs」がどのようなものかは以下の記事に明るい。
古田氏は「公共機関や研究機関の資料などをもとに」GPTsで作ったチャットボットでファクトチェックの手伝いをしてもらおうと考えているのだろうと思うが、自分の設定した範囲での資料探し「しか」できないチャットボットで、ファクトチェックできるだろうか。
自分が内容を設定しているという安心感はあるだろう。しかし生成AIは、そうは言っても偏りが生じるという指摘もある。以下の記事だ(アーカイブ)。
この記事ではChatGPT以外にも言語生成モデルをピックアップし、比較し、学習によって、左右どちらにも偏る可能性を指摘している。そのような学習能力のある生成AIに、偏りのない結果が出せるというのだろうか?
ファクトチェックは偏りがあってはならない。鉄則だ。人間が判断するものであるから、どうしても左右の感情も入りがちになるが、それすらも排して判断していくのがファクトチェックという業である。倫理観も持たず、学習によって結果が偏る可能性のある生成AIが最も不向きな分野と言っても過言ではないだろう。
X(旧Twitter)のポストで、古田氏は「精度はいまいちだけど」と述べている。そもそもファクトチェックにあたっては、疑義についてのカウンターとなる資料はその都度調べることになるし、それはすでに定義されたチャットボットの範囲を超えるであろうことは想像に容易い。チャットボットに頼り、自らの手を動かすことを放棄したファクトチェッカーに、どのような誠意ある仕事ができるというのであろうか。
「日本ファクトチェックセンター」と、いかにも「日本代表でござい」といった体のファクトチェック団体の編集長が、このような試みをしていることにいささかの不安を感じる。
日本のファクトチェックは世界基準から見ると遅れている。遅れているどころか、このような試みによって、よくないガラパゴス化が生じる懸念を感じるのは私だけだろうか。
サポートしてくださると猫のゴハン代になり、猫じゃらしの素材代になります。趣旨に賛同できる方はお願いできれば幸いです。