回帰分析

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInPrint this pageEmail this to someone

回帰分析とは、ある結果とその要因との関係を調べて、結果を予測する統計的手法をいいます。要因となる変数を「説明変数」、結果となる変数を「目的変数」または「被説明変数」と呼びます。

たとえば目的変数Yと説明変数Xとの間に回帰式Y=aX+bで表すことができる関係がある場合、実際の観測値から「最小二乗法」を用いてaとbを求めることができます。最小二乗法とは、「誤差の二乗の和を最小にする」方法です。

回帰分析では、この回帰式を使って要因分析や将来の予測を行います。

ちなみに、このように回帰式が一次方程式の形で表すことができる場合の回帰分析を、単回帰分析または直線回帰と呼びます。

また、回帰式がY=aX2+bX+cなどのように、説明変数の次数が上がったものは多項式回帰を呼ばれます。

単回帰では説明変数は1つですが、これに対して複数の説明変数をもつ場合は重回帰と呼ばれます。説明変数の数が増えると説明変数間の関連性も複雑化するため、分析がより複雑になります。

回帰式を求める手法としては最小二乗法が用いられますが、観測値のなかに「外れ値」が含まれていると精度のよい回帰式を求めにくくなります。外れ値とは、他の値から大きく外れた値のことです。

そのような場合には、外れ値をあえて除外する手法がとられることもあります。回帰スムージング法やロバスト平滑化法などを用います。

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInPrint this pageEmail this to someone
出典・参考
NEW POST