床长人工智能教程——战斗计划
原标题:床长人工智能教程——战斗计划
声明:本人只是分享一些床长的免费杂文而已,并非床长人工智能网校的收费文章。
后向传播基于四个基础等式。这些等式使我们能够计算误差δl和代价函数的梯度。我将在下面阐述这四个等式。警告,你不能期望同时接受这四个等式。如果想同时理解清楚,可能会让你失望而归。实际上,后向传播等式如此之难,以致于需要你不断地深入这些等式,耗费大量的思考时间和耐心。好消息是通过不断的反复理解,你的时间和耐心将会需要得越来越少。因此本节讨论只是一个开始,帮助你不断理解这些等式。
这些是章节中不断深入这些等式的预览:我将 给出这些等式简要的证明,浙江帮助解释为什么他们是正确的;用算法伪代码重申这些不等式,并看到这些伪代码用Python代码怎样被实施的;在最后一节,我们将给出后向传播等式的学术性描述,并且解释其是如何被某些人发现了的。按照这种方式,我们将不断的回顾这四个基础等式,这样就能更舒服的不断深入理解它们,也会感觉更加美丽和自然。
输出层的误差等式δL:δL的每一个组件即δLj=∂C∂aLjσ′(zLj).
这是一个非常自然的等式。右边的第一项∂C/∂aLj测量代价函数对第jth输出神经元的激活变化有多快。例如,C不太依赖于输出神经元j,那么δLj就会非常小,这正是我们所期望的。右边第二部分σ′(zLj)测量激活函数σ对zLj变化有多快。
声明意在(BP1) 中的每一个部分都是容易计算的。特别的,我们在计算网络行为时会得到zLj的值,而只需要增加一点点计算就能得到σ′(zLj)的值。而∂C/∂aLj的精确格式显然与具体的代价函数有关。但是,只要给出了代价函数,计算∂C/∂aLj就小菜一碟了。例如,如果使用二次型代价函数C=12∑j(yj−aj)2,那么∂C/∂aLj=(aj−yj),这显然也是非常容易计算的。
等式(BP1) 是δL的组件形式。它是一个很好的表达式,但是还不是后向传播所需要的矩阵形式。然而很容易将其重写为矩阵形式δL=∇aC⊙σ′(zL).
这里,∇aC被定义为向量,它的每一个组件都是偏导数∂C/∂aLj。你可以将∇aC做为是C对激活输出的变化率。很容易看出等式(BP1a) 和(BP1) 是相等的,正因为如此,我们使用(BP1) 来表示两种等式。举个例子,当使用二次型代价函数,我们有∇aC=(aL−y),因此(BP1) 的矩阵形式就变为δL=(aL−y)⊙σ′(zL).
能看出表达式中每一个部分都是向量形式,因此很容易使用像Numpy这类矩阵库来进行计算。
误差δl用下一层的误差表示,δl+1:特别的δl=((wl+1)Tδl+1)⊙σ′(zl),
其中(wl+1)T是(l+1)th层权重矩阵wl+1的转置。这个表达式有一些复杂,但是其中每一个部分都有很好的内部展现。假如我们知道第l+1th层的误差δl+1。那么我们乘以权重矩阵的转置(wl+1)T,我们就能递归的向后获得网络中所有误差,这就给我们了一种测量lth层误差的方式,然后我们运用Hadamard乘积⊙σ′(zl)。这就将通过l层的激活函数获取到后面的所有误差,即l层加权输入的误差δl。
责任编辑:
相关知识
床长人工智能教程——战斗计划
床长人工智能教程——softmax层
床长人工智能教程不能再卖50了,必须免费才对!
床长人工智能教程——Hadamard乘积s⊙t
床长人工智能教程——学习率
床长人工智能教程——神经网络体系
床长人工智能教程免费pdf文档50——移位操作
床长人工智能教程——基于矩阵计算神经网络输出的途径
床长人工智能教程——权重和偏见
床长人工智能教程——交叉熵的直观含义如何?
网址: 床长人工智能教程——战斗计划 http://www.alq5.com/newsview19464.html
推荐资讯
- 1李清照“两处相思同淋雪,此生 21150
- 2中华民国双旗开国纪念币一枚能 16059
- 3佟丽娅现状如何佟丽娅与陈思诚 15472
- 4马库斯世界和平艺术展圆满落幕 15420
- 5第十届中国花卉博览会,其中复 13292
- 6张家界____是张家界市永定 11809
- 7《交换的乐趣》林媚阿强苏小婉 11132
- 8《绝叫》-叶真中显 (pdf 10925
- 9《稻盛和夫给年轻人的忠告》电 9754
- 10《三嫁惹君心》中的美女,董馨 9549