线性回归

一种统计分析方法
线性回归,是一种在统计学中广泛应用的分析方法,[1]线性回归指的是表达某一个随机变量的条件均值与一个或多个解释变量的相关取值之间的关系,线性回归的表达式为:
,其中
为误差服从均值为0的正态分布。[2]
回归方法起源可追溯到20世纪20年代和30年代的弗朗西斯·高尔顿爵士和卡尔·皮尔逊爵士对甜豌豆遗传特性的早期研究,回归便可以用作表达、证明输入变量和输出变量之间关系的统计方法。[1]
在数学方面,线性回归可以用来对观测数据集合出一个预测模型,根据它的自变量X去预测Y值的变动。金融方面可利用线性回归以及Beta系数的概念分析和计算投资的系统风险。[3][4][5]

基本含义

统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,[引文需要],而不是一个单一的标量变量。)