AIの本と用語検索

RAG(検索拡張生成)

検索拡張生成(RAG)は、大規模言語モデル(LLM)の応答精度と信頼性を向上させるためのフレームワークです。これは、固定された訓練データのみに依存する従来の生成モデルとは異なり、外部の知識源から情報をリアルタイムに取得し、その情報に基づいて応答を生成するプロセスです。

具体的には、ユーザーからのクエリが入力されると、まず「検索」コンポーネントが機能します。これは、ベクトルデータベースのような外部のコーパスやドキュメントストアから、クエリと関連性の高い情報をセマンティック検索によって特定します。

この検索プロセスでは、クエリとドキュメントの埋め込みベクトルが比較され、類似度の高いものが上位にランク付けされます。

次に「拡張」フェーズでは、検索によって得られた関連情報がプロンプトの一部として元のクエリに追加されます。

この拡張されたプロンプトはLLMに与えられ、モデルは提供されたコンテキストを利用して、より事実に基づいた文脈に即した応答を生成します。これにより、モデルが訓練時に学習していない最新の情報や専門的な知識も活用できるようになります。

最後に「生成」フェーズで、LLMは拡張されたプロンプトに基づいて最終的な出力を生成します。

このメカニズムは、ハルシネーションとして知られる誤った情報を生成するLLMの弱点を軽減し、応答の根拠となる情報源を明示することで、より信頼性の高いAIシステムを構築することを可能にします。

RAGは、特に企業のナレッジベース検索や、最新のニュースに基づくQ&Aシステムなど、事実に基づいた正確な情報が求められるアプリケーションにおいて有効です。