Team proposes a reasoning framework aimed at improving the reliability and traceability of LLMs
RALM を改善するための SELF-REASONING フレームワークの図。上部は、固有の知識によって質問に答える基本的な LLM です。中央は標準的な検索拡張 LM で、検索されたドキュメントを使用して質問に答えるのに役立ちます。一番下は、自己生成された理由の軌跡を使用して答えを出力する SELF-REASONING フレームワークです。クレジット:arXiv(2024年)。DOI: 10.48550/arxiv.2407.19813

中国のテクノロジー企業、Baidu Inc. の AI 研究者チームは、LLM の信頼性とトレーサビリティを向上させるために設計された新しい推論フレームワークを提案しています。同グループは、についての自分たちの考えを説明するarXivプレプリントサーバー。

過去数年間で、ChatGPT などの LLM が主流のアプリケーションとなり、ユーザーはその機能を利用して、画像を作成したり、曲を書いたりすることもできます。

しかし、LLM には依然として明らかな弱点が 1 つあります。それは、自分自身の結果をチェックして、意味のない結果である「幻覚」が時折ユーザーに表示されないことを確認できないことです。この弱点により、AI アプリは、

この新たな取り組みにおいて、Baidu のチームは、結果をエンド ユーザーに提示する前に LLM に作業内容のチェックを強制することを目的とした戦略を考案しました。

新しいアプローチでは、結果を表示する直前に 3 段階のプロセスを LLM エンジンに追加します。1 つ目は、結果を評価し、ユーザー プロンプトとの関連性を判断するための関連性認識モデルを追加することです。2 つ目は、関連する文書が引用のために選択され、回答の正しさの証拠として抜粋が提示される、証拠を意識した選択オプションを含みます。3 番目には、前の 2 つのモジュールの結果に基づいて明確かつ簡潔な分析を実行する軌跡分析モジュールが含まれます。その後、ユーザーに最終的な答えが提供されます。

研究チームは、このアプローチにより、LLM がユーザーに提供された回答をより意識するようになり、最終的には精度が向上するはずだと示唆しています。チームはまた、テスト モジュールを LLM に追加し、プロンプトを作成します。彼らは、改良された LLM は、はるかに小さいトレーニング データセットを使用して GPT-4 を上回るパフォーマンスを発揮できたと主張しています。

研究者らは、彼らのようなフレームワークがより信頼性の高い LLM をもたらし、LLM をより多くのアプリケーションに適したものにする可能性があると示唆しています。彼らはまた、現在大規模なトレーニング データセットにアクセスできないより多くのプレーヤーにフィールドを開放することも示唆しています。

詳細情報:Yuan Xia 他、自己推論による検索拡張言語モデルの改善、arXiv(2024年)。DOI: 10.48550/arxiv.2407.19813

雑誌情報: arXiv

© 2024 サイエンス X ネットワーク

引用:チームがLLMの信頼性とトレーサビリティの向上を目的とした推論フレームワークを提案(2024年7月31日)2024 年 7 月 31 日に取得https://techxplore.com/news/2024-07-team-framework-aimed-reliability-traceability.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。