AIの本と用語検索

ハイパボリックタンジェント関数

ハイパボリックタンジェント関数は、人工知能、特にニューラルネットワークの分野で活性化関数として広く利用されています。これは、ニューロンが受け取った入力信号を次の層へ伝達する前に、その強さを調整し、非線形性を導入する役割を担う重要な要素です。

この関数は、入力された任意の実数値に対し、出力値を常にマイナス1からプラス1の間に収めるという特徴を持っています。

入力が非常に大きな正の値になっても出力は1に近づき、入力が非常に大きな負の値になっても出力はマイナス1に近づきます。そして、入力がゼロの場合は出力もゼロになります。このように、出力の範囲が限定されているため、ネットワークの学習を安定させる効果があります。

特に、この関数のグラフは中心のゼロ付近で緩やかなS字型をしており、入力の変化に対して出力がなめらかに変化します。この滑らかさのおかげで、ニューラルネットワークの学習プロセスで用いられる勾配降下法という最適化手法において、安定した計算が可能になります。

また、出力が正の値だけでなく負の値も取ることから、ネットワークが平均ゼロに近い活性化を保ちやすくなり、これは層を深くしたネットワークの学習効率を向上させる上で有利に働くとされています。

かつては非常に一般的でしたが、最近では他の活性化関数も利用されています。しかし、その対称性と出力範囲の限定性から、ハイパボリックタンジェント関数は今もなお多くのニューラルネットワークモデルで重要な役割を果たし続けています。