博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
《Andrew Ng深度学习》笔记4
阅读量:6961 次
发布时间:2019-06-27

本文共 835 字,大约阅读时间需要 2 分钟。

浅层神经网络

1.激活函数

在神经网络中,激活函数有很多种,常用的有sigmoid()函数,tanh()函数,ReLu函数(修正单元函数),泄露ReLu(泄露修正单元函数)。它们的图形如下:

sigmoid()激活函数,范围是y属于{0, 1},所以0<= y <=1。但是sigmoid函数平均收敛是1,最后的效果可能不太好。

在这个基础上有了tanh激活函数。图形如下:

主要是把sigmoid函数平移得到的。但是这样会有了优化,最终的平均收敛值为0,训练效果更好。所以在实际中,一般是选用tanh代替sigmoid激活函数。

常用的还有ReLu激活函数图形如下。

ReLu激活函数的升级版是泄露ReLu激活函数,图形如下:

通过常用激活函数的对比,在实际中调参数的时候,还要结合交叉验证来选择最优的参数。

2.非线性激活函数

线性激活函数就是输入线性关系输出。一半输出层是线性激活函数。但是在隐藏层单元中如果要实现复杂的神经网络要用到非线性激活函数,所以不是简单的相加,相减等关系。

3.激活函数的导数

sigmoid函数的导数如下。通过图形和计算得知,sigmoid函数用在神经网络中,学习速度有最大值和收敛值,而且平均收敛值是1。 

tanh函数的导数如下。通过图形和计算得知,tanh函数通过sigmoid函数平移得到,虽然学习速度基本一样,但是最终的平均收敛值不一致,tanh是0,因此,最终的模型学习效果更好。 

ReLu函数的导数如下。通过图形和计算得知,ReLu函数的学习速度没有收敛值,不会随着输入特征的维度增大而减低,因此,在实际中,ReLu激活函数使用很广泛。 

4.随机初始化

随机初始化在神经网络中很重要,有时候如果初始化参数取不对,会造成没有学习效果,因此在初始化神经网络的参数时,需要通过计算来确定大概的初始化参数。有一个方法是随机初始化。

转载于:https://www.cnblogs.com/liangjf/p/8455844.html

你可能感兴趣的文章
MVC Cookie的使用
查看>>
VMware与Hyper-V不兼容
查看>>
OSX加载驱动提示invalid signature
查看>>
input按钮的background-image属性兼容性问题
查看>>
IE8、IE9下访问博客报不安全『博客帮助』文档
查看>>
HDU 5162
查看>>
Python 获取本机ip地址
查看>>
NO.1 关于禅道
查看>>
win-codeblocks-16.01
查看>>
Cacti中文版在Centos上的安装(1)
查看>>
转:路由器MTU值对于网络通讯的影响(解决部分网站打不开问题)
查看>>
状态模式
查看>>
PHP,安卓,ios相互适用的AES加密算法
查看>>
我的友情链接
查看>>
LitePal的使用
查看>>
查找旁站路径的几种方法
查看>>
Cisco路由配置入门
查看>>
我的友情链接
查看>>
创建并调用 DLL(1)
查看>>
lvs+keepalived实现DR模式热备
查看>>