アンダーフィッティングとは、モデルが訓練データの特徴を十分に学習できていない状態を指します。この現象は、モデルの複雑性が低すぎる場合に発生し、データに内在するパターンや関係性を捉えきれません。
結果として、訓練データに対する予測精度が低く、未知のデータに対しても汎化性能が極めて悪くなります。例えば、線形モデルのような単純なモデルで、非線形なデータセットを扱う場合にしばしば見られます。
アンダーフィッティングの主な原因は、モデルの表現能力が不足していることにあります。具体的には、モデルのパラメーター数が少なすぎる、あるいは単純なアルゴリズムを使用しているケースが該当します。
また、訓練のイテレーション回数が少なすぎる場合もモデルが収束する前に学習が終了してしまい、同様の状態を招きます。
この問題を解決するためには、より複雑なモデル(例えば、ニューラルネットワークの層を増やす、決定木の深さを深くする等)を採用するか、より多くの特徴量をモデルに与えることが有効です。また、訓練プロセスを調整し、モデルが十分に収束するまで学習を継続させることも重要です。
アンダーフィッティングは、過学習(オーバーフィッティング)とは対照的な現象であり、いずれもモデルの性能を低下させる原因となります。モデル構築においては、この二つの問題のトレードオフを理解し、適切なバランスを見つけることが成功の鍵となります。
