AIの本と用語検索

Few-shotプロンプティング

Few-shotプロンプティングは、大規模言語モデル(LLM)に対して、少数の具体例(「ショット」)をプロンプト内に含めることで、特定のタスクを学習させ、より正確な出力を引き出す手法です。

これは、モデルがゼロからタスクを推論する「zero-shotプロンプティング」や、例示を一切与えない「one-shotプロンプティング」とは対照的です。

この手法の核心は、モデルにタスクのパターンや論理を「示唆」することにあります。

例えば、感情分析のタスクでは、「入力文:この映画は素晴らしい。感情:ポジティブ」「入力文:今日の天気は最悪だ。感情:ネガティブ」といった複数の入力と期待される出力のペアを提示します。これにより、モデルは新たな入力文「この本はとても感動的だった。」に対して、「ポジティブ」という適切な回答を生成するようになります。

Few-shotプロンプティングは、モデルのコンテキスト内学習(in-context learning)能力を活用しています。

モデルは、ファインチューニングやパラメータの更新を行うことなく、プロンプト内の限られた情報からタスクのルールを推論し、汎化する能力を持っています。

このため、特定のタスクに特化したモデルを構築する際に、大量の教師データを必要とせずに、効率的にモデルのパフォーマンスを向上させることが可能です。

この手法は、特に未知のドメインやニッチなタスクにおいて、モデルの精度を向上させる上で非常に有効です。ただし、プロンプトの長さが制約される場合や、複雑なタスクにおいては、例示の選択や数がパフォーマンスに大きく影響します。