見出し画像

AMAZONや複数の大学の研究者から32のLLMにおける脱幻覚手法



  1. 📚 LLM-Augmenter (Peng et al., 2023) : 外部知識を使用して LLM 応答を作成するシステム。

  2. 🔄 FreshPrompt (Vu et al., 2022) : 検索エンジンからの最新情報をプロンプトに組み込むことでパフォーマンスを向上させます。

  3. 🔍 Knowledge Retrieval (Varshney et al.、2023) : テキスト生成中に発生する可能性のある幻覚を検出し、軽減します。

  4. 🧩 D&Q フレームワーク (Cao et al.、2023) : 外部の知識を使用して、複雑な質問に対する信頼できる回答を生成します。

  5. 🕵️ EVER (Kang et al.、2023) : 生成中に幻覚を検出して修正するリアルタイム戦略。

  6. 🔎 RARR (Gao et al.、2023) : 信頼性を高めるために、生成されたテキストのポストプロダクションの理論的根拠を検証します。

  7. 🧬高エントロピー単語の検出と置換 (Rawte et al.、2023) : 高エントロピー単語を検出して置換し、幻覚を軽減します。

  8. 🌐 RAG (Lewis et al.、2021) : 事前トレーニングされた言語モデルと Wikipedia データベースを組み合わせて、テキストの品質を向上させます。

  9. 🤖 GPT-3 の信頼性を高めるプロンプト (Si et al., 2022) : GPT-3 の信頼性を高めるための効果的なプロンプトを提案します。

  10. 🛡️ ChatProtect (Mundler et al.、2023) : 自己矛盾を検出して軽減するためのプロンプトベースのフレームワーク。

  11. 🔄 Self-Reflection Methodology (Ji et al., 2023b) : 医療 QA システムにおける幻覚を軽減するための反復的な自己省察方法。

  12. ⚖️構造化比較推論 (Yan et al., 2023) : テキストの類似点と相違点を比較して、NLP タスクの一貫性と精度を高めます。

  13. 🪞 Mind's Mirror (Liu et al., 2023) : 幻覚を減らすために、大規模な言語モデルの自己推論能力を小さなモデルに抽出します。

  14. 👗 DRESS (Chen et al.、2023) : 自然言語フィードバックを使用して、モデルを人間の好みに合わせて調整します。

  15. 🔗 MixAlign (Zhang et al., 2023b) : ユーザーの質問と外部の知識の間の不一致を自動的に検出して修正します。

  16. CoVe (Dhuliawala et al., 2023) : 事実確認のための初期応答生成後に確認用の質問を計画します。

  17. 🌐 CoNLI (Lei et al., 2023) : 背景コンテキストが提供されている場合に、LLM によって生成される幻覚を検出して軽減します。

  18. 🚀 UPRISE (Cheng et al.、2023) : 特定の問題 (ゼロショット タスク) に対して適切なプロンプトを自動的に選択します。

  19. 🧪 SynTra (Jones et al., 2023) : 要約タスクでの幻覚を効率的に軽減するために合成タスクをトレーニングします。

  20. ✍️ CAD (Shi et al.、2023) : コンテキストと矛盾するモデルの事前知識をオーバーライドして、より信頼性の高い現在の情報を取得します。

  21. 🧠 DoLa (Chuang et al., 2023) : LLM のさまざまなレイヤーからのデータの差異を利用して、次の単語や文をより正確に予測します。

  22. 💡推論時間介入 (ITI) (Li et al., 2023a) : LLaMA モデルの真実性を向上させるために、推論中にモデルの推論を変更します。

  23. 🤔 RHO (Ji et al., 2023a) : 言語モデルとナレッジ グラフを組み合わせて、より忠実な応答を実現します。

  24. 🕵️ FLEEK (Bayat et al., 2023) : 入力テキスト内のチェック可能な事実を特定して検証し、修正します。

  25. 🎬 THAM フレームワーク (Yoon et al.、2022) : ビデオベースの対話システムにおけるテキストの幻覚を軽減します。

  26. 🏋️損失重み付け方法 (Qiu et al.、2023b) : 多言語要約における幻覚を減らすために、信頼度スコアに基づいてトレーニング サンプルの損失を重み付けします。

  27. 🧠知識の注入と教師と生徒のアプローチ (Elaraby et al.、2023) : 小規模なオープンソース LLM (BLOOM 7B など) での幻覚を測定および軽減するためのフレームワーク。

  28. 💭 HAR (Koksal et al.、2023) : 幻覚から作成された反事実データセットを使用して、テキストから関連情報を抽出して理解するモデルの能力を向上させます。

  29. 📊事実に基づいた言語モデルの微調整 (Tian et al.、2023) : 情報の正確性を自動チェックし、事実に基づく LLM に対して適切な回答を優先することを学習します。

  30. 📈 BEINFO (Razumovskaia et al.、2023) : 特別な調整方法を適用して、情報を求める対話における回答の精度を高めます。

  31. 🚫 R-Tuning (Zhang et al.、2023a) : 知識範囲を超えた回答を拒否するモデルの能力を向上させます。

  32. 🔧 TWEAK (Qiu et al.、2023a) : 生成されたテキストを仮説として扱い、与えられた情報に対するサポート精度を評価し、品質への影響を最小限に抑えながら信頼性を高めます。

📖用語集:

  • LLM: 大規模言語モデル

  • NLP: 自然言語処理

  • QA: 質問への回答

この記事が気に入ったらサポートをしてみませんか?