見出し画像

テクノロジー「無責任なAI」





【見破りテスト】


PCソフトレビュー会社の
ツールテスター社が
AIの「チャットGPT」の文書を
見破れるかテストしました。

結果テストした人数1920人の内
半数以上がチャットGPTと
人間の文章を区別できず
完全に騙されてしまいました。

最も騙されやすいのが
生まれた時からインターネットに
普通に接してきた今の若者の
Z世代の人達です。

テスト方法は
チャットGPTが書いた
色々なジャンルの記事と
人が書いた記事を見比べさせました

それをランダムで表示し
チャットGPTで作られた記事か
人間が書いた記事か
被験者に判断してもらいました

更にランダムで表示される記事は
全文人間かAIが書いた物なのに
AIの記事を人が編集した物もあると
嘘の情報も伝えました。

参加者の内57.1%がAI経験者で
41.1%がAI未経験者で
1.8%がAIなんて全く知らない人
このような人たちが集められました


〓=〓=〓=〓=〓=〓=〓=〓=〓=〓




【嘘つき】


結果AIだけで作られた文章を
見破る事が出来たのは
46.9%と半数以下でその他の人達は
みんな騙されちゃいました。

AIの文章を読んだ人の内36.3%が
「人間が書いたものだー!」と感じ
16.7%の人が「AIの文章を人間が
編集したものだー!」と感じました

つまり半数以上の53%は
全文AIが書いた記事なのに
全文人間か人間が手直しして
完成させたものだと思てるのです。

特に騙されやすかったのは
特に18~24歳の若者たちで
AIが作った物の判別を最も苦手とし
正確に判別できたのは40.2%でした

逆に65歳以上が52%の正解率で
一番高確率でAIの記事が解り
年齢による知識の多さがAIの記事の
違和感を見つけられたのです。

分野別でみるとテクノロジーが
51.05%AIと解りましたが
健康系の記事が43.94%の人しか
AIの記事と解らなかったのです。

この事からチャットGPTは
責任を負わないくせに適当な
健康系の説得力ある文章を書き
人に悪影響を与えてしまいます。


〓=〓=〓=〓=〓=〓=〓=〓=〓=〓




【AIの署名】


このようにAIが書く記事は
まるで専門家の様に記事を書き
その記事を真に受けた人が
被害にあう可能性があります。

チャットGPTは
自分が持ってない情報の事を
記事にしろと命令すると
平然と嘘の記事を書くのです。

今回のテストで半数以上の人が
チャットGPTと人間の文章を
見分けられない事が解かり
騙される危険性が高まりました

今後更にAIの技術が進化してくと
全く見分ける事が出来なくなって
コオロギ食べても平気だよ~んと
怖い嘘に騙されるかもしれません

このテストに参加した人たちの
80.5%が今後もAIに記事を書かせ
人に読ませるなら
AIと解るサインが必要と言います

しかしもう既に
チャットGPTがnoteでも使用でき
みんな普通にAIに記事を書かせ
投稿してる人がたくさんいます

その多数の記事の中から我々は
AIの記事か人間の記事か見分けて
正確な情報なのか騙されない様に
気を付けないとなりません。


サポートしてくれたら 明日食べる もやしを買う事ができます((+_+)) よろしくお願いします( ゚Д゚)