データはテキストで残そう

今更ではあるけど、ようやくGitHub Copilotを使い始めた。業務では使用していないけれど、個人のPCに導入して個人での開発で使い始めた。
まだまだ使いこなしているとは言えないけれど、開発効率はかなり上がったように思う。
月額料金がかかるけれど、個人でも払う価値のあるツールではあると思う。
ChatGPTも有料課金をして日頃から使用しているけれど、開発者はそれとは別の角度から生産性を上げることができる。

私はVS CodeにGitHub Copilotをインストールした。
Copilotの仕組みを詳しく理解しているわけではないのだけれど、どうやら開いているタブにあるコードを学習しているらしい。学習した内容から、今現在書いているコードに対して次に書きそうなコードをAIが予測で出してくれる。新しいメソッド(関数)を追加する場合、メソッド名まで入力するとメソッド名からAIが処理の内容を推測して提案してくれる。
あれはかなり感動した。
もっと上手く使いこなしてもっともっと生産性を上げていきたいと思う。

GitHub Copilotは基本的にコーディングする時に大きく活躍してくれるツールですが、このツールのすごいところは日本語に対しても有効であるということ。つまり、日本語で文書を作成する場合でも学習用のデータがあればAIによる補完が効くということ。例えば報告書を作成する場面でも、過去に作成した報告書類をテキストエディタにまとめておいてVS Codeでそれらが見える状態にすればAIによる補完を使いながら報告書の作成のスピードを上げられる可能性がある。

私の所属する企業では週報をメールで作成するのですが、試しにGitHub Copilotを使ってみることにした。
今までの週報の送信履歴から数ヶ月分をコピペでテキストエディタに移し、そのままテキストエディタで週報を作成した。
結果、予想通りそれなりに補完が効いたことでいつもよりも早く週報が完成した。メールの送信履歴を1つ1つコピペしてエディタに移していく作業は結構面倒だったけど、テキスト情報としてデータが残っていたのはかなり救いだったなと思う。今回は調べてないけれど、メーラーの機能で送信履歴を出力する機能もありそうだし、。それらを上手く使えればもっと効率よくAIを有効活用できたのかもしれない。

今は週報をテキストベースで作成しているけど、昔はいろんな報告書系をExcelで作成していたし、作成させていた。今考えると結構恐ろしいことをしているなと思う。
もちろんExcelでも時間をかけてテキストをコピペで抽出したり、マクロや適当なプログラム言語のAPIを使うことでテキストデータを抽出することは可能でしょう。だけどそれは、元からテキストデータだったものに比べると比較もしたくないほど工数がかかる。

AIが本当に身近な存在になったけれど、AIを使うには学習させるためのデータが必要になる。ChatGPTなど、最初から学習されたAIツールを使うだけでももちろん便利ではあるけれど、自分が積み上げてきた作業をベースに新しい作業をする時には、自分だけの蓄積データをAIに学習させることで作業効率を上げることができると思う。
だけど、そのデータが(たとえばExcelのような)AIに学習させにくい形で蓄積されていたとしたら、AIを有効活用するのは難しい。
Office365にもMicrosoft 365 Copilotなるものが出るらしいので、Excelで蓄積されたデータでも活用できるかもしれないし、今後いろんな形のデータに対応したAIサービスも出るかもわからない。
いずれにしてもPCを使って作業をする場合、AIでデータを活用することを考慮したデータの蓄積方法を選択することが大事になってくるのだろうと思う。


サポートいただくとめちゃくちゃ喜びます。素敵なコンテンツを発信できるように使わせていただきます。