【小白学AI】防止过拟合的方法大全

站长亦新
站长亦新
站长亦新
81
文章
0
评论
2020年6月20日02:41:42 评论 168 1591字阅读5分18秒

1 什么是过拟合

过拟合就是在训练集上表现得非常好,在测试集上表现得不好。也就是我们俗称的泛化能力弱

过拟合无法避免,只能缓解,那么如何缓解呢?方法太多了。这篇文章一一介绍。

2 数据集增强Augmentation

图像上,翻转,平移,缩放,旋转,镜像,增强对比度,增强亮度等诸多方式。
我在下面的内容中介绍了图像处理的图像增强的方法:
【预处理库函数】albumentations库的简单了解和使用

3 Early Stopping

训练模型的时候,训练误差往往是不断下降的,但是验证数据集的误差,是先下降后上升。 两个数据集的误差出现分歧的时候,说明模型开始过拟合了。所以Early Stopping就是当验证数据集的误差不在下降的时候,结束训练,保存模型参数。

4 正则化regularization

L1正则:模型中只有少部分特征对模型的泛化能力有贡献,所以L1就是限制模型中非零参数的数量。让大部分的模型参数都是0,只有真正对泛化能力其作用的参数才是非零的。

L2正则:我们希望模型找到的极小值是平坦的,为什么呢?
【小白学AI】防止过拟合的方法大全
图中表示的意思,就是平坦的极小值,可以有更多的容忍,容忍什么呢?容忍训练数据集和测试数据集之前的分布偏差。现在,如果模型的某些参数特别大,那么就算输入的样本只有很小的区别,但是经过特别大的参数之后,模型给出的结果很可能是非常不同的。这就是太陡峭。所以L2正则就是限制模型参数的大小。参数的平方的和作为损失的一部分,当参数数值越大,那么梯度下降的损失越大,就会强迫参数变小。

这里有两幅图:
【小白学AI】防止过拟合的方法大全

这一幅图体现的是假设只有两个参数的情况下,增加L1正则的情况。圆圈圈体现的是损失等值线,方框是L1正则的损失。假设没有L1正则,那么参数应该收敛到最小的那个圆圈中的。但是因为增加了L1正则,所以需要权衡两个部分的损失,然后找到接触的交点位置。因为圆形和矩形在矩形的顶点相交的可能性大,而矩形的顶点就是某一个参数为0的情况。所以L1正则会让模型参数有更大的可能性为0.
【在更多参数的模型中,会有更多的顶点。不过二维图像就画不出来了】


【小白学AI】防止过拟合的方法大全
这个是L2正则的示意图。L2正则式一个原型因为是参数的平方和。相比L1的(0,1)这样的交点,L2更希望每一个参数都普遍较小,不希望某一个参数特别大。

5 Dropout

这个就是神经网络中,在全连接网络中经常用到的。

在每一个Batch数据训练的时候,Dropout层按照概率P随机让一些神经元失活,然后保留下来的神经元的参数被更新。dropout是只有在训练的时候才使用的,在测试的时候并不适用。

我个人理解的dropout其实就相当于一个多模型融合的过程。因为每一次都会失活一部分的神经元,所以每一次的模型都是不那么一样的,相当于不同的模型吧。

6 增加噪音

6.1 输入中增加噪音

输入中有噪音\epsilon,那么输出中就会有一个类似于\epsilon \omega,这样的损失项。 从而限制权值的大小。

当然这样也可以增加模型对输入的容忍度,我觉得也可以理解为一种数据增强。 去噪自编码器DAE就是利用这样的方法的。

6.2 权值中加噪音

这个用的不多,在初始化网络的时候,用0均值的高斯分布作为参数的初始化。

7集成

集成主要是bagging,boosting,之前说的dropout我觉得也可以算作集成的方法

7.1 bagging

将数据集抽取一部分,比如抽取70%的样本,然后用这些样本去训练一个模型。然后再从数据集中抽取70%的样本,再训练一个新的。典型的就是随机森林。
【神经网络因为训练速度的问题,所以一般不用这样的方法。决策树lgb啥的可以用】

7.2 boosting

训练复杂神经网络比较慢,所以可以通过训练多个简单的分类器,然后加权平均每一个分类器的输出。这就是Boost的思想。【这句话给我背下来!】

之后整理一下Adaboost和XGBoost的这些算法。

8 其他

  • 限制网络的层数和复杂度
weinxin
我的微信
微信扫一扫
站长亦新
  • 本文由 发表于 2020年6月20日02:41:42
  • 转载请务必保留本文链接:http://helloworld2020.net/466/
AI面试之SVM推导 机器学习

AI面试之SVM推导

SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实...
一分钟区别:判别模型与生成模型 数据挖掘

一分钟区别:判别模型与生成模型

1. 直观理解 先给出最直观的理解: 【判别式模型】:要确定一个图片是猫还是狗,用判别模型的方法就是根据数据集X训练模,然后把新的图片输入到模型中,模型给出这个图片是每个类别的概率。 【生成式模型】:...
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: