Algorithm helps enhance LLM collaboration for smarter, more efficient solutions
「Co-LLM」は、汎用の大規模言語モデルを使用してプロンプトへの応答を開始し、特定の単語に「スイッチ変数」を介してエキスパート モデルからのより正確な応答を呼び出します。クレジット: Alex Shipps/MIT CSAIL

答えの一部しか分からない質問をされたことがありますか?より多くの情報に基づいた回答をするには、その件について詳しい友人に電話するのが最善の策です。

この協力的なプロセスも役立ちます(LLM) の精度が向上します。それでも、LLM に、いつ別のモデルと共同して答えを求めるべきかを認識するよう教えるのは困難でした。MIT のコンピュータ サイエンスおよび人工知能研究所 (CSAIL) の研究者たちは、複雑な数式や大量のラベル付きデータを使用してモデルが連携する必要がある場所を説明する代わりに、より有機的なアプローチを構想しました。

彼らのは、「Co-LLM」と呼ばれ、汎用の基本 LLM とより特殊なモデルを組み合わせて、それらの連携を支援します。前者が答えを作成するとき、Co-LLM はその応答内の各単語 (またはトークン) をレビューして、エキスパート モデルからより正確な答えを呼び出すことができる場所を確認します。このプロセスにより、医療上のプロンプトや数学や推論の問題などに対するより正確な回答が得られます。各反復でエキスパート モデルが必要ないため、より効率的な応答生成にもつながります。

ベース モデルがエキスパート モデルの助けを必要とするタイミングを決定するために、フレームワークは機械学習を使用して「スイッチ変数」、つまり 2 つの LLM の応答内の各単語の能力を示すツールをトレーニングします。スイッチはプロジェクト マネージャーのようなもので、専門家を呼ぶべき領域を見つけます。

たとえば、Co-LLM に絶滅したクマの種の例を挙げるように依頼した場合、2 つのモデルが一緒に回答を作成します。汎用 LLM は、クマ種が絶滅した年を追加するなど、エキスパート モデルからより良いトークンを挿入できる部分にスイッチ変数を介して応答をまとめ始めます。

「Co-LLM を使用することで、私たちは本質的に、必要に応じてエキスパート モデルに『電話をかける』ための汎用 LLM をトレーニングしているのです」と MIT 博士のシャノン シェン氏は言います。の学生そして、コンピュータ サイエンスと CSAIL の関係者で、このアプローチに関する新しい論文の筆頭著者です。調査結果は次のとおりです出版されたarXivプレプリントサーバー。

「私たちはドメイン固有のデータを使用して、生物医学的タスクや数学や推論の問題などの分野における対応者の専門知識を基本モデルに教えます。このプロセスでは、基本モデルが生成するのが難しいデータの部分が自動的に検出され、その後、それが指示されます。ベース モデルを、同様の分野のデータで事前トレーニングされたエキスパート LLM に切り替えます。汎用モデルは「足場」生成を提供し、特殊な LLM を呼び出すと、エキスパートに必要なトークンを生成するよう促します。私たちの調査結果は、LLM がコラボレーションのパターンを有機的に学習し、人間が空白を埋めるために専門家をいつ呼ぶべきかを認識する方法に似ていることを示しています。」

柔軟性と事実の組み合わせ

汎用 LLM に特定の処方薬の成分の名前を尋ねることを想像してください。誤った応答が返される可能性があり、専門モデルの専門知識が必要です。

Co-LLM の柔軟性を示すために、研究者らは次のようなデータを使用しました。BioASQベース LLM とさまざまなドメインのエキスパート LLM を結合する医療セット。メディトロンモデル、ラベルのない医療データで事前トレーニングされています。これにより、アルゴリズムは、特定の病気を引き起こすメカニズムの名前など、生物医学の専門家が通常受け取るであろう質問に答えるのに役立ちました。

たとえば、単純な LLM のみに特定の処方薬の成分の名前を尋ねると、間違った応答が返される可能性があります。生物医学データに特化したモデルの専門知識が追加されると、より正確な答えが得られます。Co-LLM は、回答を再確認する場所もユーザーに警告します。

Co-LLM のパフォーマンス向上のもう 1 つの例: 「3・・2a=5 の場合、汎用モデルは答えを 125 と誤って計算しました。Co-LLM が Llemma と呼ばれる大規模な数学 LLM とさらに連携するようにモデルをトレーニングしたため、正しい解は 3,125 であると判断されました。

Co-LLM は、微調整された単純な LLM や独立して動作する調整されていない特殊なモデルよりも正確な応答を返しました。Co-LLM は、異なる方法でトレーニングされた 2 つのモデルが連携するようにガイドできますが、「プロキシ チューニング」などの他の効果的な LLM コラボレーション アプローチでは、すべてのコンポーネント モデルを同様にトレーニングする必要があります。さらに、このベースラインでは、各モデルを同時に使用して、一方、MIT のアルゴリズムは特定のトークンに対してエキスパート モデルをアクティブにするだけで、より効率的な生成につながります。

専門家に尋ねるとき

MIT の研究者のアルゴリズムは、人間のチームワークをより忠実に模倣することで、複数の LLM コラボレーションの精度を向上できることを強調しています。事実の精度をさらに高めるために、チームは人間の自己修正を活用する可能性があります。エキスパート モデルが正しい応答を返さない場合にバックトラックできる、より堅牢な延期アプローチを検討しています。このアップグレードにより、Co-LLM は軌道修正できるようになり、アルゴリズムは引き続き満足のいく応答を返すことができます。

チームはまた、新しい情報が利用可能になったときに (基本モデルのトレーニングのみを介して) モデルを作成し、回答を可能な限り最新に保ちます。これにより、Co-LLM は最新の情報と強力な推論力を組み合わせることができるようになります。最終的には、このモデルは、最新の情報を使用して企業ドキュメントを更新し、企業ドキュメントを支援できるようになります。Co-LLM は、小規模なプライベート モデルをトレーニングして、より強力な LLM と連携して、サーバー内に保持する必要があるドキュメントを改善することもできます。

「Co-LLM は、効率とパフォーマンスを向上させるために 2 つのモデルのどちらかを選択する方法を学習するための興味深いアプローチを提供します」と、トロント大学の准教授であり、Vector Institute の副研究ディレクターである Colin Raffel 氏は述べています。研究。

「ルーティングの決定はトークン レベルで行われるため、Co-LLM は、困難な生成ステップをより強力なモデルに延期するきめ細かな方法を提供します。モデルとトークン レベルのルーティングの独自の組み合わせにより、同様の方法に比べて大幅な柔軟性も提供されます」Co-LLM は、高価なモノリシック AI システムを上回るパフォーマンスを発揮する特殊なモデルのエコシステムを開発することを目的とした重要な業務に貢献しています。」

詳細情報:Shannon Zejiang Shen 他、複数の言語モデルを使って共同でデコードする方法を学ぶ、arXiv(2024年)。DOI: 10.48550/arxiv.2403.03870

雑誌情報: arXiv

この記事は MIT ニュースのご厚意により再掲載されています (web.mit.edu/ニュースオフィス/) は、MIT の研究、イノベーション、教育に関するニュースを扱う人気のサイトです。

引用:新しいアルゴリズムは、LLM コラボレーションを強化して、よりスマートで効率的なソリューションを実現します (2024 年 9 月 16 日)2024 年 9 月 16 日に取得https://techxplore.com/news/2024-09-algorithm-llm-collaboration-smarter-efficient.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。