优化迭代方法和深度学习反向传播

发布时间:2024-12-26 11:46

理解反向传播算法是深度学习调试的关键 #生活技巧# #学习技巧# #深度学习技巧#

优化迭代方法和深度学习反向传播

最新推荐文章于 2023-12-31 01:40:56 发布

LotusQ 于 2019-12-22 16:11:30 发布

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

文章目录 优化迭代方法统一论 线性回归建模 无约束优化梯度分析法 无约束优化迭代法 线性回归求解 深度学习反向传播 回归与分类 神经网络 BP算法 计算图

优化迭代方法统一论

线性回归建模

线性回归过程:训练,预测
线性回归公式模型表示及向量化表示

训 练 样 本 : { ( x ( i ) , y ( i ) ) } 训 练 样 本 集 : { ( x ( i ) , y ( i ) ) ; i = 1 , ⋯   , N } 向 量 化 : { ( x 1 ( i ) , x 2 ( i ) , y ( i ) ) } → { ( x ( i ) , y ( i ) ) } , x ( i ) = [ x 1 ( i ) x 2 ( i ) ] 我 们 学 习 什 么 ? f ( x ) = w x + b f ( x ( i ) ) ≈ y ( i ) f ( x ) = w T x + b f ( x ( i ) ) ≈ y ( i ) 训练样本:{(x(i),y(i))}训练样本集:{(x(i),y(i));i=1,⋯,N}向量化:{(x(i)1,x(i)2,y(i))}→{(x(i),y(i))},x(i)=[x(i)1x(i)2]我们学习什么?f(x)=wx+bf(x(i))≈y(i)f(x)=wTx+bf(x(i))≈y(i)

训练样本:{ (x(i),y(i))}训练样本集:{ (x(i),y(i));i=1,⋯,N}向量化:{ (x1(i)​,x2(i)​,y(i))}→{ (x(i),y(i))},x(i)=[x1(i)​x2(i)​​]我们学习什么?f(x)=wx+bf(x(i))≈y(i)f(x)=wTx+bf(x(i))≈y(i)​
下面讲述两种学习方法。

无约束优化梯度分析法

介绍一些前验知识:无约束优化问题、梯度、二次型、正定矩阵、泰勒级数展开、极值等。

无约束优化问题

自变量为标量的函数
f : R → R min ⁡ f ( x ) x ∈ R f:R→Rminf(x)x∈R f:R→R​minf(x)x∈R​ 自变量为向量的函数
f : R n → R min ⁡ f ( x ) x ∈ R n f:Rn→Rminf(x)x∈Rn f:Rn→R​minf(x)​x∈Rn​ 等高线图(Contour)
在这里插入图片描述 极值情况
极小、极大、鞍点(saddle point)、局部极大(极小)。
在这里插入图片描述
在这里插入图片描述

梯度
一阶导数和梯度(gradient vector)
f ( x ) ; g ( x ) = ∇ f ( x ) = ∂ f ( x ) ∂ x = [ ∂ f ( x ) ∂ x 1 ⋮ ⋮ ∂ f ( x ) ∂ x n ] f(x);g(x)=∇f(x)=∂f(x)∂x=[∂f(x)∂x1⋮⋮∂f(x)∂xn]

f(x);g(x)=∇f(x)=∂x∂f(x)​=⎣⎢⎢⎢⎢⎢⎡​∂x1​∂f(x)​⋮⋮∂xn​∂f(x)​​⎦⎥⎥⎥⎥⎥⎤

网址:优化迭代方法和深度学习反向传播 https://www.yuejiaxmz.com/news/view/574191

相关内容

强化学习中的策略迭代算法优化研究
深度学习中的优化问题(Optimization)
从用户反馈到产品迭代:在线教育直播平台如何持续优化
深度学习模型的24种优化策略
浅谈*迭代加深*深度优先搜索
手把手教你强化学习 (四)动态规划与策略迭代、值迭代
Dropout技术全面解析——深度学习中的泛化能力提升策略
公司员工业余优化方案和深造学习制度优化方案
走向深度学习
【深度学习】深度学习语音识别算法的详细解析

随便看看