写在之前:
带着问题去学习,往往能够让我们有着一个纲领的学习方法,而不会迷失在各种概念,和公式的推导中。
1、什么是逻辑回归?逻辑回归的推导,损失函数的推导分别是什么?为什么LR需要归一化或者说取log
2、LR为什么要用sigmoid函数?这个函数的优点与缺点?为什么不用其他函数
3、为什么LR需要把特征离散化,且离散化后效果更好。
4、LR与线性回归,SVM有什么不同?
1. 回归与分类的区别
回归是统计学中最有力的工具之一。机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型、连续性而定义的。回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签。
2. Logistic 分布
Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。Logistic Regression 因其简单、可并行化、可解释强深受工业界喜爱。
Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。
Logistic 分布是一种连续型的概率分布,其分布函数和密度函数分别为:
其中,u 表示位置参数, r >0 为形状参数。其图像特征如下。
Logistic 分布是由位置和尺度参数定义。而Sogmoid函数就是Logistic 分布在u-0, r=1的特殊形式。
考虑二分类的情况。如下所示,期望找到一个分离平面,能将二者划分开。而线性回归的目的是找到一个函数使得所有的点的误差距离最小。如第二图所示。
Logistic 回归在找到决策边界w1x1+w2x2+b =0 , 后,还要找到分类概率P(Y=1)与输入向量X的直接关系,然后通过比较概率值来判别类别。 这时候WX+b 与类别概率的用什么函数来拟合呢??而且概率的分布是连续的。要求我们的函数时连续的,值域为[0,1]. 当然第一时间就想到了sogmoid函数。设Z = WX+b.
则输出的概率Y = 1/(1+ exp^(-z))…
到此我们可以利用这个函数进行分类任务了。但是就这样有个缺陷就是之预测了正例的概率。
所以考虑对sogmoid函数取对数。则有ln(y/(1-y)) = Z = WX+b.
取对数有如下几个优点:
1,直接对分类的概率进行求解。
2,不仅可以预测出类别,还能得到该预测的概率。
3, 对数函数时任意可导的凸函数,有很多数值优化算法可以求解最优解。
为什么要对特征进行离散化:
特征离散化,从数学角度来说可以认为是增加robustness,但是更重要的,make sense of the data,将数据转变成人类可以理解、可以validate的格式。
另外一点,我们LR是广义的线性模型。线性模型就得通过离散化将非线性的特征转化为线性的,这个过程就是离散化。
下面一段内容摘自LR与SVM的区别, 【机器学习】逻辑回归(非常详细)
离散化提升特征的表达能力,提高鲁棒性。
“LR 是参数模型,SVM 是非参数模型,参数模型的前提是假设数据服从某一分布,该分布由一些参数确定(比如正太分布由均值和方差确定),在此基础上构建的模型称为参数模型;非参数模型对于总体的分布不做任何假设,只是知道总体是一个随机变量,其分布是存在的(分布中也可能存在参数),但是无法知道其分布的形式,更不知道分布的相关参数,只有在给定一些样本的条件下,能够依据非参数统计的方法进行推断。所以 LR 受数据分布影响,尤其是样本不均衡时影响很大,需要先做平衡,而 SVM 不直接依赖于分布”
在工业界,很少直接将连续值作为逻辑回归模型的特征输入,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型,这样做的优势有以下几点:
0. 离散特征的增加和减少都很容易,易于模型的快速迭代;
- 稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展;
- 离散化后的特征对异常数据有很强的鲁棒性:比如一个特征是年龄>30是1,否则0。如果特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰;
- 逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;
- 离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;
- 特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人。当然处于区间相邻处的样本会刚好相反,所以怎么划分区间是门学问;6. 特征离散化以后,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险。
(参考:链接:https://www.zhihu.com/question/31989952/answer/54184582)
与其他模型比
1、 与线性回归
逻辑回归是在线性回归的基础上加了一个 Sigmoid 函数(非线形)映射,使得逻辑回归称为了一个优秀的分类算法。本质上来说,两者都属于广义线性模型,但他们两个要解决的问题不一样,逻辑回归解决的是分类问题,输出的是离散值,线性回归解决的是回归问题,输出的连续值。
我们需要明确 Sigmoid 函数到底起了什么作用:
线性回归是在实数域范围内进行预测,而分类范围则需要在 [0,1],逻辑回归减少了预测范围;线性回归在实数域上敏感度一致,而逻辑回归在 0 附近敏感,在远离 0 点位置不敏感,这个的好处就是模型更加关注分类边界,可以增加模型的鲁棒性。
2、与 SVM
相同点:
都是分类算法,本质上都是在找最佳分类超平面;都是监督学习算法;都是判别式模型,判别模型不关心数据是怎么生成的,它只关心数据之间的差别,然后用差别来简单对给定的一个数据进行分类;都可以增加不同的正则项。
不同点:
- LR 是一个统计的方法,SVM 是一个几何的方法;
- SVM 的处理方法是只考虑 Support Vectors,也就是和分类最相关的少数点去学习分类器。而逻辑回归通过非线性映射减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重;
*损失函数不同:LR 的损失函数是交叉熵,SVM 的损失函数是 HingeLoss,这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。对 HingeLoss 来说,其零区域对应的正是非支持向量的普通样本,从而所有的普通样本都不参与最终超平面的决定,这是支持向量机最大的优势所在,对训练样本数目的依赖大减少,而且提高了训练效率;
- LR 是参数模型,SVM 是非参数模型,参数模型的前提是假设数据服从某一分布,该分布由一些参数确定(比如正太分布由均值和方差确定),在此基础上构建的模型称为参数模型;非参数模型对于总体的分布不做任何假设,只是知道总体是一个随机变量,其分布是存在的(分布中也可能存在参数),但是无法知道其分布的形式,更不知道分布的相关参数,只有在给定一些样本的条件下,能够依据非参数统计的方法进行推断。所以 LR 受数据分布影响,尤其是样本不均衡时影响很大,需要先做平衡,而 SVM 不直接依赖于分布;
- LR 可以产生概率,SVM 不能 ;
- LR 不依赖样本之间的距离,SVM 是基于距离的;
- LR 相对来说模型更简单好理解,特别是大规模线性分类时并行计算比较方便。而 SVM 的理解和优化相对来说复杂一些,SVM 转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。
下面时3分类的结果,效果还不错,训练精度与测试精度很接近。