線形回帰〈linear regression〉とは、未知の線形写像を、幾つかの入力とそれに対する出力の組合せから推定する手法です。 例えば、中学校で習う1次関数 f(x) = ax + b に対して、2つの異なる入力x1とx2を渡して、その値を見ます。 y1 = f(x1) = ax1 + b y2 = f(x2) = ax2 + b この状況で、x1, x2, y1, y2 はすべて定数となるので、a, bを未知数として連立1次方程式を解けばa, bが求まります。つまり、未知の1次関数fが確定します。 1次関数に確率的な揺らぎeが加わるならば、次の形になります。 f(x) = ax + b + e eは揺らぎ(法則的不確実性)を表す確率分布です。この場合は、同じ値をfに複数回入力するとき、試行の度に出力が変わるかもしれません。単純に連立方程式を解くだけでなく、なんらかの工夫が要求されます