浅谈梯度下降法/Gradient descent
发布时间:2019-03-29 05:52:40 所属栏目:教程 来源:360技术
导读:当今世界,深度学习应用已经渗透到了我们生活的方方面面,深度学习技术背后的核心问题是最优化(Optimization)。最优化是应用数学的一个分支,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。 梯度下降法(G
(当前点在 由此得知: 即: 故由梯度下降法的 即:相邻两次的搜索方向是相互直交的(投影到二维平面上,就是锯齿形状了)。 如果你非要问,为什么 可知两向量夹角为90度,因此它们直交。 6. 优点 这个被我们说得一无是处的方法真的就那么糟糕吗? 其实它还是有优点的:程序简单,计算量小;并且对初始点没有特别的要求;此外,许多算法的初始/再开始方向都是最速下降方向(即负梯度方向)。 7. 收敛性及收敛速度 梯度下降法具有整体收敛性——对初始点没有特殊要求。 采用精确的line search的梯度下降法的收敛速度:线性。 引用:
(编辑:威海站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |