AIの本と用語検索

LIME

LIME (Local Interpretable Model-agnostic Explanations) は、機械学習モデルの予測を人間が理解できるように説明する手法です。この手法の大きな特徴は、特定のモデルに依存しないモデル・アグノスティックなアプローチである点です。つまり、線形回帰、決定木、ニューラルネットワークなど、どのようなモデルに対しても適用可能です。

LIMEの基本的な考え方は、個々の予測を局所的に解釈することにあります。

具体的には、説明したい予測の周辺で、元のデータにわずかな摂動(かく乱)を加えた摂動データを生成します。そして、この摂動データと元のモデルの予測結果を基に、より単純で解釈しやすい代理モデル(例えば、線形モデルや決定木)を訓練します。

この単純な代理モデルは、元の複雑なモデルの挙動を、特定の予測の「局所的な近傍」において近似します。

代理モデルは、各特徴量が予測にどのように貢献しているかを示すため、特徴量の重要度を可視化できます。例えば、ある画像が「猫」と分類された場合、LIMEは画像内のどのピクセル領域がその分類に最も強く影響したかをハイライトして示せます。

LIMEの利点は、ブラックボックスモデルの信頼性を高め、デバッグを可能にすることです。しかし、その解釈はあくまで局所的なものであり、大域的なモデル全体の挙動を説明するものではない点に注意が必要です。