大域最適解とは、機械学習モデルの訓練プロセスにおいて、目的関数がとりうる最小値または最大値そのものを指します。これは、モデルが学習すべき全てのパラメータの組み合わせの中で、最も性能が優れた状態、つまり最も誤差が少ない、または最も報酬が大きい状態を意味します。
これに対し、「局所最適解」は、パラメータ空間の特定の狭い範囲内でのみ最適な状態であり、そこから少しでも外れると性能が悪化するような地点です。この局所最適解に陥ると、モデルはそれ以上改善されず、真の最適な状態には到達できません。
ニューラルネットワークのような複雑なモデルでは、パラメータ空間が非常に高次元になるため、複数の局所最適解が存在することが一般的です。モデルの訓練アルゴリズム、例えば勾配降下法は、初期値の設定や学習率の調整が不適切だと、勾配がゼロになる地点で学習が停止し、局所最適解に留まってしまう危険性があります。
したがって、AIの訓練における重要な課題は、いかにしてこの局所最適解を回避し、真の大域最適解へ収束させるかということです。これには、確率的勾配降下法におけるランダム性の導入や、学習率の動的な調整、または訓練初期のパラメータ探索を広範囲に行うといった、様々なアプローチが試みられています。
大域最適解を見つけることは、モデルの汎化能力を最大化し、未知のデータに対して高い精度で予測を行うために不可欠な要素です。
