线性回归和逻辑回归有什么区别?

当我们必须预测分类结果的价值时,我们使用逻辑回归。 我相信我们使用线性回归来预测给定input值的结果的价值。

那么,这两种方法有什么区别呢?

在线性回归中,结果(因variables)是连续的。 它可以具有无数个可能值中的任何一个。 在逻辑回归中,结果(因variables)仅具有有限数量的可能值。

例如,如果X包含房屋的平方英尺面积,Y包含这些房屋的相应销售价格,则可以使用线性回归来预测销售价格作为房屋大小的函数。 虽然可能的销售价格可能实际上并不是什么 ,但是有很多可能的价值,所以select线性回归模型。

相反,如果你想根据规模来预测房子的销售是否超过20万美元,那么你可以使用逻辑回归。 可能的产出是“是”,房子的售价将超过20万美元,否则房子不会。

  • 线性回归输出为概率

    使用线性回归输出作为概率是诱人的,但这是一个错误,因为输出可能是负的,大于1,而概率不可能。 由于回归实际上可能产生的概率可能小于0,甚至大于1,因此引入逻辑回归。

    资料来源: http : //gerardnico.com/wiki/data_mining/simple_logistic_regression

    在这里输入图像说明

  • 结果

    在线性回归中,结果(因variables)是连续的。 它可以具有无数个可能值中的任何一个。

    在逻辑回归中,结果(因variables)仅具有有限数量的可能值。

  • 因variables

    逻辑回归用于响应variables本质上是分类的时候。 例如,是/否,是/否,红/绿/蓝,一/二/三/四等

    当你的响应variables是连续的时候使用线性回归。 例如,体重,身高,小时数等

  • 方程

    线性回归给出了forms为Y = mX + C的方程,表示方程为1。

    然而,逻辑回归给出的forms为Y = e ^ X / 1 + e ^ -X

  • 系数解释

    在线性回归中,独立variables的系数解释是相当直接的(即保持所有其他variables不变,随着单位增加这个variables,因variables预计会增加或减lessxxx)。

    然而,在逻辑回归中,取决于您使用的族(二项式,泊松等)和连接(log,logit,inverse-log等),其解释是不同的。

  • 错误最小化技术

    线性回归使用普通最小二乘法来最小化误差并达到最佳拟合,而逻辑回归使用最大似然法来求解。

    线性回归通常通过最小化模型对数据的最小平方误差来解决,因此大的误差被二次惩罚。

    逻辑回归正好相反。 使用逻辑损失函数会导致大的错误被渐近地保持不变。

    考虑分类{0,1}结果的线性回归,看看为什么这是一个问题。 如果你的模型预测结果是38,当事实是1时,你什么也没有损失。 线性回归试图减less38,逻辑不会(尽可能多) 2

简而言之,线性回归是一种回归algorithm,其可能连续且无限的价值; 逻辑回归被认为是二元分类器algorithm,其输出属于标签(0或1)的input的“概率”。