見出し画像

メモ:AIについてぐるぐる考えている

最近、考えていること。
AIによる記事コンテンツの生成について。

わたしはWEB広告関係の仕事をしている。去年の頭あたりから「AI生成記事の是非」についていろいろと聞くことが多く、頭の中でなんとなく考えていた。

去年ChatGPTを使った感じだと、まだまだ、ありきたりで抽象的な文章しか生成せず、「ライターと同じレベルの文章を書くことはできなさそうだな」と思った。

しかし、数ヶ月前から、WEB記事を書くのに特化したAIツールがぞくぞく出てきた。それらはChatGPTをベースにしているのだが、ツール内部の仕組み(?)、ChatgGPTに読み込ませるプロンプト(?)が優れているのか、かなり高精度な文章をつくる。

実際ちょっと試しに使ってみて「ええ、すごい!こんな文章も書けるんだ!」と興奮してしまった。これは今後、かなり大勢の人がAIを使ってWEB記事を作るようになるぞ…。

わたしは物事のネガティブな面を想像してしまいがちだ。世の中で(もっと狭くWEB業界だけでも)AIはコスパが良い、タイパ的にも良いという意見が市民権を得たら、雪崩のようにドッとAI生成コンテンツがあふれかえるだろう。と想像してしまう。

ここは資本主義の世界。倫理観よりも競合他社に勝つこと、効率的に売り上げをつくること、そういうことが優先される。

AIがすでにWEB上にある情報を大量に読み込んで、それを要約するようにコンテンツを作っても、世界に対して新たな価値はない。(その企業が競合に買って得をするだけだ)

WEBの情報を享受する側のユーザーは、いよいよ、情報の海のなかで溺れ死んでしまうのではないか。今でさえ、安心して信用できる情報は少ないのに、信用できる情報の割合は落ちていくだろう。感覚としては、いまが10%からくらい信用できるとしたら、今後は1%くらいなイメージ。

ぐーぐる検索をして、憶測や感想だけの浅い記事で、かつ広告がそこかしこに貼られている記事をみると、ゲンナリしてしまう。「インプがとれれば何でもいいや」と思ってるのが透けて見えるのがなぁ…。こういうゲンナリ体験が増えるのかと思うとちょっと絶望する。

AIの技術発展に罪はない。使う人間のスタンスや倫理観によってWEBの世界が明るくも暗くもなる。私たち人間の世界が、AIに飲み込まれないようにしたい。少なくともわたしは、倫理観がなくて経済合理性だけを考えるAIのようなシステマチックな人間にはなりたくない。

個人でブログを書いて発信することも、営利企業で情報を発信することも、どちらも人間が人間に送るものであってほしい。

この記事が気に入ったらサポートをしてみませんか?