最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

courseraMachineLearningWeek3-2学习笔记

来源:动视网 责编:小采 时间:2020-11-09 07:27:28
文档

courseraMachineLearningWeek3-2学习笔记

courseraMachineLearningWeek3-2学习笔记:Part 7:Regularition 在机器学习中一个很重要的问题就是程序可能会产生overfitting的情况,什么是overfittingjust see below: overfitting就是程序针对所给出的训练集找到了一条曲线,能够把训练集几乎完美的分为2个部分,但是这条曲线过于复杂,并且失去
推荐度:
导读courseraMachineLearningWeek3-2学习笔记:Part 7:Regularition 在机器学习中一个很重要的问题就是程序可能会产生overfitting的情况,什么是overfittingjust see below: overfitting就是程序针对所给出的训练集找到了一条曲线,能够把训练集几乎完美的分为2个部分,但是这条曲线过于复杂,并且失去


Part 7:Regularition 在机器学习中一个很重要的问题就是程序可能会产生overfitting的情况,什么是overfitting?just see below: overfitting就是程序针对所给出的训练集找到了一条曲线,能够把训练集几乎完美的分为2个部分,但是这条曲线过于复杂,并且失去

Part 7:Regularition

在机器学习中一个很重要的问题就是程序可能会产生overfitting的情况,什么是overfitting?just see below:


overfitting就是程序针对所给出的训练集找到了一条曲线,能够把训练集几乎完美的分为2个部分,但是这条曲线过于复杂,并且失去了对新的元组预测的准确度。这种情况是非常有可能出现的,因为在逻辑回归中,如果元组X的属性值很多,那么很有可能拟合出来的曲线就会非常的复杂。那么如何避免这样的情况的发生?视频中给出了2个方法,第一个就是降低数据的维度,选取少部分真正能代表数据特征的几个维度来进行逻辑回归的计算;第二个就是正规化(Regularition),保留所有的维度,但是降低参数θj的大小。这种方法具体的实现如下:


在原来的代价函数上增加了对于参数θj本身大小的影响,使得最后得出的参数θ的大小尽可能的小,这样就不会过分的放大每个属性对于最终的输出的影响而导致函数过于复杂化。然后我们将regularition应用到线性回归,代价函数上面已列出,下面列出使用梯度下降法时的更新公式(基本的公式不变,修改了一下求出偏导之后的公式):

使用最小二乘法时的公式:

至于将regularition应用到逻辑回归,基本和线性回归一致,不再重新给出具体的公式了。

文档

courseraMachineLearningWeek3-2学习笔记

courseraMachineLearningWeek3-2学习笔记:Part 7:Regularition 在机器学习中一个很重要的问题就是程序可能会产生overfitting的情况,什么是overfittingjust see below: overfitting就是程序针对所给出的训练集找到了一条曲线,能够把训练集几乎完美的分为2个部分,但是这条曲线过于复杂,并且失去
推荐度:
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top