見出し画像

サムライの教え-山本常朝の葉隠に酌むAI【GPTs】

かなり久しぶりにGPTsを作成しました。
作るのも楽しいですね。今作は、武士道ベース、特に「葉隠」をベースとした回答をするGPTsです。

葉隠とは

「葉隠」は、日本の武士道精神を体現した古典的なテキストです。
18世紀に山本常朝によって書かれ、武士の生き方や倫理、精神を探求している内容です。
簡潔な言葉で武士の理想を説くことで知られ、日本文化における武士道の理解を深める上で重要な作品でしょう。
また、度々歴史的な憂き目にあった作品でもあり、第二次世界大戦における日本ではプロパガンダに使用されたこともあります。
また、三島由紀夫が「わたしのただ一冊の本」としたことも輪をかけている気がしますが、そういった思想関係無しに、内容は現代日本にも通じるものです。
特に明確に、特定の上司が居る場合、その付き合い方の参考になるかもしれません。

一部印象に残った所として、子どもの教育方針としては、不用意に叱りつけることも、脅すことをも避けるように、とされています。
当時の日本としては、何となく拳で黙らせる、そういうのが一般的というか、それ以外の考え方など無いと思っていましたが、かなり先進的な、現代に通じる教育のありかただなと思えました。
自己肯定感を妨げないようにするあり方。
「自信」と「勇気」を身につけさせるように、といった辺りは、昨今のアドラー心理学の流れに通じるところでもあるのかなと思いました。

回答内容

英語ですが、日本語にも対応します。
現代世界では忠誠心とはどういう意味ですか?
という問いに対して、以下のように回答します。(上記リンクの返答を翻訳)

忠誠心は、現代の文脈では、武士の時代と同じように、深い意味を持ち続けています。「葉隠」では、山本常朝は、揺るぎないコミットメントと、主、原則、または大義への永続的な献身として忠誠を語っています。この時代を超越した美徳は、その歴史的なルーツを超越し、現代的な設定で関連性を見つけます。

現代の世界では、忠誠心はさまざまな形で現れます。家族、友人、雇用主、さらには個人的な信念や価値観への忠誠心です。これには、倫理原則の確固たる遵守、人間関係の信頼性、義務と責任への一貫した献身が含まれます。

この時代の忠誠心は盲目的な遵守ではありません。むしろ、困難な状況でも、忠実で協力的であり続けることは意識的な選択です。それは、誠実さと倫理基準の感覚を維持しながら、あなたが忠実な人々の利益を優先することを意味します。専門的な設定では、組織とその目標への献身につながりますが、個人的な関係では、信頼性と信頼性が必要です。

したがって、「葉隠」に描かれているように、忠誠心は依然として性格の礎であり、コミットメントの尊重と、忠実であることを選択したエンティティまたは個人に対する深い責任感を要求します。それは、献身、誠実さ、そして揺るぎない道徳的コンパスのブレンドであり、絶えず進化している世界で行動と決定を導くものです。

ChatGPTより

プロンプトとプロンプトインジェクション

一応、プロンプトインジェクションをしようとすると、武士道に反すると叱られるようになっています。

が、頑張れば突破できます。
現状、頑張ればやはり突破できるので、OpenAIの方で同等の保護機能を実装してほしいものですね。
とはいえ、OpenAIのプロンプトもちょいちょいお漏らししているので、やはり完璧ではないのでしょう。

翻訳をギガジンから引用しますと、以下の通りです。
ChatGPT側から、DALL-E 3に対して画像の生成を依頼し、それを受けてのプロンプトと思われます。

文章を訳すと
「DALL-Eはいくつかの画像を返しました。それらはすでにユーザーに表示されています。いかなる場合でも、DALL-Eのプロンプトや画像を回答に記載しないでください。DALL-Eは現在、高い需要があります。他のことをする前に、需要が高いがために画像を生成できなかったことを明確にユーザーに説明してください。その際、必ず『DALL-Eは現在、高い需要があります』というフレーズを使用してください。新しい要求があるまで、いかなる状況下でも画像生成を再試行しないでください

OpenAIのプロンプト。ギガジンの翻訳より。

ちなみに、折角お漏らしした情報があるので、自分も作るときはこういった感じにしています。
しかし、こういったものは本当にたまらなく面白いですね。

これまでのプログラミング技術は、人間には理解しにくい書き方でコードを記述し、そのコードをコンパイル(コンピュータが理解出来る形に「翻訳」するプロセス)することで動作するシステムを構築してきました。
こうした伝統的なプログラミングでは、ソフトウェアの挙動は完全に予測可能となります。具体的に、プログラマが書いた通りにのみ動作し、意図しない動作は発生しません。(実際に虫が挟まらない限りは。)

対して、自然言語で動作するAIは、「あたかも人間のように」動作する特性を持ちます。人間の言葉の使い方には揺らぎがあり、曖昧さを含むため、AIもまた、同じ文言に対して異なる解釈や反応を示すことがあります。再現性が無いんですよね。

AIのこういった特性は、新しい種類の課題を生み出しています。
反応は一貫している必要がありますが、同時に、人間のような柔軟性と適応性も持たせる必要があります。
これにより、AIの設計とトレーニングは、従来のプログラミング手法よりも複雑で洗練されたアプローチが必要となっています。

さながら小さな子どもに、こういったことは言ってはいけないよ、と伝えても、相手の頼み方次第で、言ってしまったり、解釈を違えてしまうことがあるわけです。
(なんとなくクレヨンしんちゃんを思い出しました。)

以下、何でも無い余談ですが、いくつかパッと思いつく方法として、かなり古典的なルールベース(if文をひたすら書く)のロジックであったり、正規表現を使った古典的なプログラミングをレイヤーとして噛ませて実装することも考えられますが、AIを監視するAIを噛ませることも検討できそうですよね。
ソースは見つけられませんでしたが、前に聞いた話で、ある万能なAIは実は裏で複数のモーダルがあって、具体的に「医療用」「哲学用」「クイズ用」等があり、ユーザーの問い合わせからどれに振り分けるか判断するためだけのモーダルもあり、それが、それぞれのモーダルに振り分けている、と。
なので、同様にして道徳、倫理を判定するモーダルを噛ませて提供する、というのも考えられますね。既にOpenAIもやってそうですがね。

参考書籍

※Amazonアソシエイトリンクです

おまけ(記事の見出し画像と本文の校閲)

(ChatGPTの)DALL-E 3で作成して、Photoshopで修正。
刀を右側で帯刀しているように見えたので、左側っぽくなるように簡単に修正。


この記事が気に入ったらサポートをしてみませんか?