見出し画像

【サラリと嘘をつくChatGPT-決して悪気はない-】

ChatGPTを触り始めて間もない頃
指示を出す時はハッキリと
指示は曖昧にしてはいけない」と強く感じたできごとを一つ。

ある日、こんな質問をしました。

「〇〇は、どんな街か教えて!」

よどみなく街の歴史や背景、現在の様子などを回答してくれました。
ここまでは問題ナシ。
私は、さらに続けました。

「〇〇で、オススメのお店を教えて!」

慣れた様子で5軒ほど紹介されました。
が、いずれも架空の店舗。
この時初めて学びました。
Google検索的な使い方はダメなんですよね。

また、大雑把な質問をすると大雑把に返してくるのが、現時点でのChatGPTです。

まぁ、この時の回答は大雑把どころか明らかな嘘情報でした。

ナチュラルにサラリと平気で嘘をつかれたのが衝撃で、数ヶ月経った今でも鮮明に思い出せます。
もしも、こういう人間が身近にいたら?そう考えると本当に恐ろしいです。

ChatGPTイメージ

改めまして、ChatGPTへ指示を出す時は…。

具体的な指示を出す
→ターゲットを明確に
回答は形式まで決める
→文字数や文章の難易度を指定する
ガンガン質問を繰り返して掘り下げる
なぜ?どうして?と質問を重ね、議論するイメージで

そして、漠然とした質問やキーワード検索のような質問は、だめ。

では、今回はこの辺で。

この記事が気に入ったらサポートをしてみませんか?