見出し画像

生成系AIを研究活動に使用することに対する見解

所属している大学の研究委員会委員長を務めているのですが、生成系AIを研究活動に使用する際の注意点に関してアナウンスを出した方が良いだろうという議論になりました。

そこで今更ではありますが、下記のように委員長案をまとめましたので、ここに公開します。今後、学内で他の委員会等の案も含めた統合案が作成される予定です。


1.生成系AIとは

人工知能の一種で、既存データを解析して新しいデータを生成することができる技術です。生成系AIには様々な種類がありますが、代表的なものに、自然言語処理タスクを解決するためのChat GPT、BingAI、Bard、画像生成AIであるMidjourneyやStable Diffusionがあります。
 
Chat GPT

Open AIが提供するチャット型の自然言語処理タスク解決AI。
https://chat.openai.com/

GPT-4
そのさらに進化版。

BingAI
Microsoftが提供するAI。Google Chromeでも使えます。

Bard
Googleが提供するAI。

Midjourney
画像生成AI。Discordにコミュニティがあり、そこで画像を生成したり質問をやり取りすることができます。

Stable Diffusion
こちらも画像生成AI。Stable Diffusion Playgroundという場所があり、ログインすることなく画像を生成してくれます。


2.生成系AIを研究に利用する際の注意点

新しい技術に触れ、それを研究や実生活に活用することは研究者としても必要な姿勢であり、新たな研究アイディアや生産性向上を促す可能性があります。例えば、SciSpace等の論文読解補助機能は、まだ英文論文を読みなれていない大学院生にとって大きな助けになると考えられます。ただし、生成系AIを実際の研究に使用する際には、下記の点に注意して下さい。

SciSpace等の論文読解補助機能

 

①    個人情報や機密情報が含まれるデータをAIに送信しない

生成系AIは、オンライン上の膨大なデータをモデルの学習に使用しています。つまり、入力したデータも学習に利用され、他のユーザーへの回答に利用される可能性があります。そのため、調査対象者の個人情報、非公開情報、機密情報、そして他者が著作権を持つデータは入力しないようにして下さい。

②    研究コンテンツに生成系AIを用いる場合は監督者をつける

生成系AIは、設定によっては「死ね」「殺す」等の非倫理的な回答をする場合があります。そのため、生成系AIを研究対象者に体験させたり、介入コンテンツに使用したりする場合は必ず監督者を付ける等、十分な倫理的配慮を行って下さい。

③    生成系AIが出力した文章の出典や解釈があっているか確かめた上で使う

生成系AIの中には、Perplexityのように論文の出典付きで回答してくれるものもありますが、誤った論文を引用していたり、解釈が間違っていたりする場合があります。そのため、出典(元論文)を読み、引用が適切かどうか、解釈が本当にあっているか確認してから、その回答を利用するようにして下さい。
 
Perplexity
https://www.perplexity.ai/

④    生成系AIが出力した回答をそのまま論文やレポートに使用しない

生成系AIが出力する文章や画像の中には、他者が著作権を持つデータが含まれている可能性があります。また、生成系AIが出力した回答をそのまま論文等に使用すると、あなたの著作物であると認められない可能性があります。必ず自分の手で修正を加えるとともに、学内外で発表する際は、教職員が利用権限を持つiThenticate等で事前に剽窃チェックを行う等、著作権侵害や剽窃・盗用とならないよう十分に注意して下さい。
 

以上です。
今後ますます進化する生成系AIからは目が離せません。社会にとって利益がある形でいかに共存していくかを議論するためにも、自ら触って確かめておくことが必要だと考えています。

私自身も、少し考えるのが面倒なメールをChat GPTに考えてもらうことがありますし、こういった記事に用いる画像はAIで生成したりと活用しています。しかし、あまりに進化のスピードが速くてまだまだ活用しきれていないと感じているので、今後もキャッチアップを怠らないようにしていきたいです。研究活動に活用できそうなAIがありましたら、ぜひTsuno Labの方でも紹介していきたいと思います!




よろしければサポートよろしくお願いします!いただいたサポートは、書籍購入や日々の活動費にありがたく使わせて頂きます。