申请专栏作者 参展
投稿发布
您的当前位置:主页 > 机器学习 > 正文

机器学习中几个重要算法常识

来源:未知 时间:2018-12-08
请支持本站,点击下面的广告后浏览!

这篇给大家介绍一些机器学习中必须要了解的几个算法常识,这些算法常识在之后从事机器学习方面研究和工作时是非常重要的。

可思数据-人工智能资讯平台sykv.com

1 欠拟合与过拟合

内容来自可思数据sykv.com

我们已经知道,我们希望通过机器学习学得的模型的泛化能力比较强,直白来说就是使得学得的模型不仅仅在在训练样本中工作得很好,更应该在新的样本中工作很好。 本文来自可思数据(sykv.com),转载请联系本站及注明出处

通常我们把分类错误的样本数占总样本数的比例称为错误率(error rate),而准确度(accuracy)= 1 - 错误率。举例来说,如果在 m 个样本有 a 个样本分类错误,那么错误率为 a/m,准确度为 1 - a/m。

可思数据sykv.com,sykv.cn

更一般地,我们将模型在训练集上的误差称为训练误差(train error),在测试集上的误差称为测试误差(test error),在假设测试数据与真实数据独立同分布的前提下,测试误差可以作为泛化误差(generalization error)的近似。我们当然是希望能够得到泛化误差小的模型,但是由于我们事先不知道测试集是什么样子,所以我们在使用机器学习算法时,不会提前固定参数,而是调整参数去降低训练误差。在整个过程中,泛化误差的期望会大于等于训练误差的期望。 可思数据-AI,sykv.com智能驾驶,人脸识别,区块链,大数据

想要保证模型效果好,也就是泛化误差比较小,可以通过以下两个因素来实现: 可思数据-AI,sykv.com人工智能,深度学习,机器学习,神经网络

降低训练误差。

可思数据-人工智能资讯平台sykv.com

缩小训练误差和泛化误差的差距。

可思数据sykv.com,sykv.cn

这两个因素分别对应机器学习的两个主要挑战:欠拟合(underfitting)和过拟合(overfitting)。欠拟合是指模型不能再训练集上获得足够低的误差,而过拟合是指训练误差和泛化误差之间的差距太大。 内容来自可思数据sykv.com

欠拟合相对容易理解点,过拟合可能不太容易理解,这里给出一个形象的比喻。上学考试的时候,有的人采取题海战术,把每个题目都背下来。但是题目稍微一变,他就不会做了。因为他非常复杂的记住了每道题的做法,而没有抽象出通用的规则。直观理解,这种情况就属于过拟合。 可思数据-www.sykv.cn,sykv.com

我们再来通过一张图片来直观地理解下欠拟合与过拟合的区别。有一组数据集包含了特征X和标签Y,简单起见,我们只考虑一个特征,现在我们通过三个假设函数来拟合这批相同的数据,得到结果如下:

内容来自可思数据sykv.com

 

解释下图片的内容:(左) 用一个线性函数拟合数据得到的模型导致欠拟合——它无法捕捉数据中的曲率信息。(中) 用二次函数拟合数据得到的模型在未观察到的点上泛化得很好。这并不会导致明显的欠拟合或者过拟合。 (右) 用一个高阶的多项式拟合数据得到的模型会导致过拟合。

可思数据-人工智能资讯平台sykv.com

相比于欠拟合,过拟合在实际工作中更为常见,出现过拟合的原因常见的有以下几种:

内容来自可思数据sykv.com

训练集和测试集分布不一致。

可思数据sykv.com,sykv.cn

训练集的数量级和模型的复杂度不匹配。训练集的数量级小于模型的复杂度。

本文来自可思数据(sykv.com),转载请联系本站及注明出处

样本里的噪音数据干扰过大,大到模型过分记住了噪音特征,反而忽略了真实的输入输出间的关系。

内容来自可思数据sykv.com

2 没有免费的午餐定理 内容来自可思数据sykv.com

我们经常听人谈论“什么算法更好”或者“A算法比B算法好”这样类似说法,其实这样的说法忽略了一个前提,那就是在解决某一个具体的问题(任务)上。为什么这么说呢,因为如果考虑所有潜在的问题,所有的学习算法都一样好。要谈论算法的相对优劣,必须要针对具体的问题和任务才有意义。 内容来自可思数据sykv.com

举个例子,我们有两组数据集,将它们分别切分成训练集和测试集之后,然后通过假设函数A和B分别拟合对应的两个训练集,得到结果如下: 本文来自可思数据(sykv.com),转载请联系本站及注明出处

 

在图(a)中的数据分布下,模型A和B都完美地拟合了所有的训练样本,但是在测试样本上的表现,模型A的拟合效果超过了模型B;在图(b)中的数据分布下,模型A和B同样完美地拟合了所有的训练样本,但是在测试样本上的表现,模型B的拟合效果超过了模型A。 可思数据-AI,sykv.com人工智能,深度学习,机器学习,神经网络

上面的例子充分说明了没有哪个算法是绝对完美的,每个算法都有它适合的数据集,也就是说它适合的任务。

可思数据-www.sykv.cn,sykv.com

没有免费的午餐定理(No Free Lunch Theorem,简称 NFL)说的就是无论我们能设想到的最先进的算法还是多么笨拙的算法(比如胡乱猜测),它们的期望性能其实都是相同的。 可思数据-www.sykv.cn,sykv.com

这个结论看起来非常地“匪夷所思”,但实际上它是成立的。不过它成立的前提在所有可能出现的数据分布上。但是在实际生活中,我们很多时候只关注自己试图解决的问题,希望为它找到一个好的解决方案。举个实际生活中的场景,比如说你的家里地铁口有800m,你上班时想快速到达地铁口,这时候选择共享单车就是一个不错的方案;但如果说你想快速从北京到上海,这时候,共享单车显然不是一个好的选择。所以我们关注的就是在当前要解决的问题下(或者任务下),为它找到一个合适的解决方案。

可思数据sykv.com,sykv.cn

所以说,机器学习研究的目标不是找一个通用学习算法或是绝对最好的学习算法。反之,我们的目标是理解什么样的分布与机器学习获取经验的“真实世界”相关,什么样的学习算法在我们关注的数据生成分布上效果最好。 可思数据sykv.com

3 偏差和方差 可思数据-AI,sykv.com人工智能,深度学习,机器学习,神经网络

我们希望在能够得到一个泛化误差比较小的模型的同时,也希望能够解释为什么模型的泛化误差比较小(或者比较大)。我们可以将模型的期望泛化误差分解为两部分:偏差(bias)和方差(variance)之和。即: 内容来自可思数据sykv.com

泛化误差 = 偏差 + 方差

可思数据-AI,sykv.com智能驾驶,人脸识别,区块链,大数据

偏差度量了学习算法的期望预测与真实结果偏离程度,即刻画了学习算法本身的拟合能力。方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响,或者说学习算法的稳定性。 可思数据-AI,sykv.com智能驾驶,人脸识别,区块链,大数据

偏差-方差分解说明,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。给定学习任务,为了取得好的泛化性能,则需使偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。

本文来自可思数据(sykv.com),转载请联系本站及注明出处

这里我们通过一张扔飞镖的图片来解释下偏差和方差。

可思数据sykv.com

 

image

可思数据sykv.com

左上角的低偏差、低方差是理想中的模型,类似于把飞镖扔到了离靶心很近的地方,并且聚集效果也很好;右上角的低偏差、高方差是模型过拟合的表现,类似于把飞镖扔到了离靶心很近的地方,但是聚集效果效果不好;左下角的高偏差、低方差是模型欠拟合的表现,类似于把飞镖扔到了离靶心很远的地方,但是都集中在一个位置;右下角的高偏差、高方差是最差的模型了,类似于把飞镖扔到了靶子上,但是飞镖离靶心也很远,而且彼此间很分散。 可思数据sykv.com

一般来说,偏差和方差是有冲突的,也就是说,当模型复杂度较低时,模型的偏差较高,方差较低;当模型复杂度较高时,模型的偏差较低,方差较高。下图给出了他们之间的一个关系。

可思数据-AI,sykv.com人工智能,深度学习,机器学习,神经网络

 

当我们有了模型的偏差和方差之后,就能够知道下一步该如何优化算法。

可思数据-人工智能资讯平台sykv.com

假设说,我们的分类器模型在训练集上的错误率为1%,测试集上的错误率为11%,我们估计它的偏差为1%,方差为11%-1%=10%,明显过拟合了,所以下一步优化时应该考虑降低方差。 可思数据-AI,sykv.com人工智能,深度学习,机器学习,神经网络

如果说一个分类器模型在训练集上的错误率为15%,测试集上的错误率为16%,我们估计它的偏差为15%,方差为16%-15%=1%,明显欠拟合了,所以下一步优化时应该考虑降低偏差。

可思数据-人工智能资讯平台sykv.com

4 贝叶斯误差 可思数据-www.sykv.cn,sykv.com

贝叶斯误差也叫最优误差,通俗来讲,它指的就是现有技术下人和机器能做到最好的情况下,出现的误差。

可思数据sykv.com,sykv.cn

人类擅长很多任务,比如图像识别和语音识别这类处理自然数据的任务,人类水平和贝叶斯水平相差不远,通常用人类水平来近似成贝叶斯水平,也就是说人的误差可以近似地看成贝叶斯误差。 本文来自可思数据(sykv.com),转载请联系本站及注明出处

有了贝叶斯误差之后,饿哦们可以将偏差分解为贝叶斯误差与可避免偏差之和。即:

内容来自可思数据sykv.com

偏差 = 贝叶斯误差 + 可避免偏差

内容来自可思数据sykv.com

假设我们训练了一个分类器模型,在训练集上的错误率有15%,在测试集上的错误率有30%,如果说贝叶斯误差为14%,那么我们可以知道它的可避免误差有15%-14%=1%,方差有30%-15%=15%,这时候,我们应该考虑如何降低方差,而不是降低偏差。 本文来自可思数据(sykv.com),转载请联系本站及注明出处

5 降低偏差和方差的办法 可思数据-人工智能资讯平台sykv.com

降低模型的偏差,能够降低模型欠拟合的风险; 可思数据sykv.com,sykv.cn

降低模型的方差,能够降低模型过拟合的风险。 可思数据sykv.com,sykv.cn

这里我们来看下如何一些常用的方法。 可思数据-数据挖掘,智慧医疗,机器视觉,机器人sykv.com

降低模型的偏差

可思数据-数据挖掘,智慧医疗,机器视觉,机器人sykv.com

增加新特征(维度)。比如挖掘组合特征、上下文特征、ID类特征。 可思数据-www.sykv.cn,sykv.com

增加模型复杂度。比如在线性模型中增加高次项,在神经网络中增加网络层数或神经元个数。

可思数据-人工智能资讯平台sykv.com

减少或去除正则化系数。比如L1、L2、dropout等。 可思数据-数据挖掘,智慧医疗,机器视觉,机器人sykv.com

降低模型的方差 可思数据sykv.com,sykv.cn

增加更多的训练数据(样本量)。

可思数据sykv.com,sykv.cn

降低模型复杂度。比如决策树模型中降低树深度、进行剪枝等。 本文来自可思数据(sykv.com),转载请联系本站及注明出处

加入正则化。使用正则化能够给模型的参数进行一定的约束,避免过拟合。 可思数据-数据挖掘,智慧医疗,机器视觉,机器人sykv.com


转发量:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
数据标注服务

关于我们   免责声明   广告合作   版权声明   联系方式   原创投稿   网站地图  

Copyright©2005-2019 Sykv.com 可思数据 版权所有    ICP备案:京ICP备14056871号

人工智能资讯   人工智能资讯   人工智能资讯   人工智能资讯

扫码入群
咨询反馈
扫码关注

微信公众号

返回顶部
关闭