AIの本と用語検索

外挿の安全性

外挿の安全性とは、訓練データの範囲を超えた、未知の状況やデータパターン(外挿)に直面した際に、AIシステムが信頼性を保ち、予測の精度や振る舞いの適切さを維持できる能力や性質を指します。

多くの機械学習モデル、特に深層学習モデルは、与えられた訓練データセット内のパターンを学習し、その範囲内での入力に対しては高い性能を発揮します。しかし、現実世界では、学習時には想定されていなかった、訓練データの分布から大きく逸脱したデータや状況がしばしば発生します。

AIが訓練データから大きく外れた新しい入力に遭遇した際、モデルは学習したパターンを単純に類推しようとしますが、この類推が意味をなさない、または誤った結論を導き出す可能性が高まります。

例えば、自動運転車が学習していない極端な天候や道路状況に遭遇したり、医療AIが稀な疾患の画像データを見たりする場合がこれに該当します。この時、モデルの出力は予測不可能なものとなり、最悪の場合、重大な安全上のリスクや倫理的な問題を引き起こす可能性があります。

この問題を解決し、AIを実社会で安全に運用するためには、外挿の安全性を高めることが極めて重要です。具体的には、モデルが「自分には分からない」ということを認識し、不確実性を適切に評価して表明する能力(不確実性推定)を向上させる手法や、より堅牢で一般化能力の高いモデル構造を開発する研究が進められています。

外挿の安全性の追求は、AIシステムが現実世界の変化に対応し、人間にとって安全かつ信頼できるパートナーとなるための基本的な課題の一つです。