全球最实用的IT互联网信息网站!

AI人工智能P2P分享&下载搜索网页发布信息网站地图

当前位置:诺佳网 > AI人工智能 > AI通用技术 >

在深度学习中为什么要正则化输入?

时间:2017-11-22 09:37

人气:

作者:admin

标签: 深度学习 

导读:今天我们来讲解一下为什么要正则化输入(也叫标准化输入)呢?...

本文作者原创,转载请注明出处。

今天我们来讲解一下为什么要正则化输入(也叫标准化输入)呢?

正则化输入其实就是论文中说的局部相应归一化,它最早由Krizhevsky和Hinton在关于ImageNet的论文里面使用的一种数据标准化方法。

在实际应用中,我们可能会遇到各维度数据或者各特征在空间中的分布差别很大。就如同下图

这给训练增加了难度,我们可以看一下如果是这样的数据我们会得到一个什么样的梯度下降图。

很明显,这是一个狭长的立体图形,在进行反向传播的过程中,如果在两端开始梯度下降的话,整个过程就变得很漫长。所以为了解决这种情况,我们使用了正则化输入去解决。下面就是正则化输入的计算公式:

按照这个公式来计算的话,我们的梯度下降就变成这样了。

这样的话我们无论是从哪一个点开始梯度下降,得到的效果是一样的。

那我们再来看一下在Tensorflow中是怎么实现的。Tensorflow中的APItf.nn.lrn,别名也叫tf.nn.local_response_normalization,这两个是一个东西。再来看一下函数是怎么定义的:

local_response_normalization(  input,  depth_radius=5,  bias=1,  alpha=1,  beta=0.5,  name=None)

里面那么多参数,那分别又是代表什么呢?首先,input是我们要输入的张量,depth_radius就是上面公式中的n/2,其实这个变量名为什么叫depth_radius呢?radius不是半径吗?与半径又有什么关系呢,我等下再来讲解为什么。接着,bias是偏移量,alpha就是公式中的α,beat就是公式中的β。

其实啊,LRN也可以看作是“每个像素”在零值化后除以“半径以内的其他对应像素的平方和”,这个半径就是给定的变量depth_radius的值。

那我们用代码来看一下效果怎么样:

import numpy as npimport tensorflow as tfa = 2 * np.ones([2, 2, 2, 3])print(a)b = tf.nn.local_response_normalization(a, 1, 0, 1, 1)with tf.Session() as sess:    print(sess.run(b))

输出的结果a是:

输出的结果b是:


温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信