プロンプトインジェクションにクソ強いAIチャットボットを作る
悪意あるプロンプトインジェクションや予期せぬ出力をもたらすプロンプトによるAI出力を評価AIの再帰的な呼び出しにより防ぐ|Sepia|note
前回の話を発展させて、Input側だけでなく、Output側にも評価AIの再帰呼び出しを使ってプロンプトインジェクションにクソ強いチャットBOTを作ろうと言う話です。
概念図を完成させた後、特許庁で検索してみると
ペルソナチャットボット制御方法及びシステム
とまんまな特許が既に出されておりまして、今回、私が考えたシステムがこれの侵害にならないか?と言うのが争点にもなります。
私の考えたチャットボットの概念図が
うーん。非常にざっくりしている。
この特許の概念図ではどこに組み込むかは別として、230の部分に大規模言語モデルを組み込んでもいいとあるんだよね。
特許らしくなんでも後付けできるような記載がしてある。
私の考えたチャットボットとこの特許の違いは、この特許はユーザー端末を介してプロンプトを入力すること、ソフトウェアプロンプトが前提になっているからプロンプトインジェクションを想定した作りになってないことだな。
私の設計では、ユーザーはAIに対して(通るかどうかは別として)自由な発言を許されているし、AIも発言を(出せるかどうかは別として)ほぼ編集されずに出すことが出来る。
一方、特許の方ではキャラクター性を損なわないように調整するという目的を重視した設計になっている。
おそらく、ソーシャルゲームのキャラクターとの対話を想定して、キャラの人格が破綻しない方向に強い修正をかけるためだろう。
そういう意味では、既存のキャラクターではなく、チャットボットとして一からキャラクターを作っていく場合には私のシステムの方が有利だ。
何より、評価AIを再帰的に使用すると言う私のシステムはどうひねり出してもこの特許図からは出せないはずだ。その点からは既存の特許の侵害とならずに使用できると考える。
この記事が気に入ったらサポートをしてみませんか?