Tensorflow 中优化器optimizer参数 adam认识

发布时间:2024-12-03 04:09

使用Adam优化器结合学习率衰减策略(如Step Decay)可以改善模型训练效果 #生活技巧# #学习技巧# #深度学习技巧#

最新推荐文章于 2024-10-24 18:32:22 发布

后知前觉 于 2020-05-20 16:34:20 发布

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

一、先理解优点

Adam优化器
2014年12月,Kingma和Lei Ba两位学者提出了Adam优化器,结合AdaGrad和RMSProp两种优化算法的优点。对梯度的一阶矩估计(First Moment Estimation,即梯度的均值)和二阶矩估计(SecondMoment Estimation,即梯度的未中心化的方差)进行综合考虑,计算出更新步长。
主要包含以下几个显著的优点:

实现简单,计算高效,对内存需求少参数的更新不受梯度的伸缩变换影响超参数具有很好的解释性,且通常无需调整或仅需很少的微调更新的步长能够被限制在大致的范围内(初始学习率)能自然地实现步长退火过程(自动调整学习率)很适合应用于大规模的数据及参数的场景适用于不稳定目标函数适用于梯度稀疏或梯度存在很大噪声的问题
综合Adam在很多情况下算作默认工作性能比较优秀的优化器。

二、记录下公式

在这里插入图片描述

三、伪代码

四、问题及改进

虽然Adam算法目前成为主流的优化算法,不过在很多领域里(如计算机视觉的对象识别、NLP中的机器翻译)的最佳成果仍然是使用带动量(Momentum)的SGD来获取到的。Wilson 等人的论文结果显示,在对象识别、字符级别建模、语法成分分析等方面,自适应学习率方法(包括AdaGrad、AdaDelta、RMSProp、Adam等)通常比Momentum算法效果更差。

针对Adam等自适应学习率方法的问题,主要两个方面的改进:
1、解耦权重衰减
在每次更新梯度时,同时对其进行衰减(衰减系数w略小于1),避免产生过大的参数。
在Adam优化过程中,增加参数权重衰减项。解耦学习率和权重衰减两个超参数,能单独调试优化两个参数。

2、修正指数移动均值
最近的几篇论文显示较低的[if !msEquation][endif](如0.99或0.9)能够获得比默认值0.999更佳的结果,暗示出指数移动均值本身可能也包含了缺陷。例如在训练过程中,某个mini-batch出现比较大信息量的梯度信息,但由于这类mini-batch出现频次很少,而指数移动均值会减弱他们的作用(因为当前梯度权重及当前梯度的平方的权重,权重都比较小),导致在这种场景下收敛比较差。
AMSGrad 使用最大的来更新梯度,而不像Adam算法中采用历史的指数移动均值来实现。作者在小批量数据集及CIFAR-10上观察到比Adam更佳的效果。

网址:Tensorflow 中优化器optimizer参数 adam认识 https://www.yuejiaxmz.com/news/view/354709

相关内容

机器学习实现语音识别的背后技术详解
【深度学习】深度学习语音识别算法的详细解析
[转]20行代码实现语音识别系统
人脑 vs 算法:社交技能的比较研究1.背景介绍 社交技能是人类在日常生活中进行交流、沟通、建立关系等方面的能力。随着人
深入了解AI大模型在智能家居领域的应用1.背景介绍 智能家居技术已经成为现代生活中不可或缺的一部分,它为我们提供了方便、
基于深度学习的可穿戴设备人体动作识别代码实战和实际运用随着科技的不断发展,可穿戴设备已经逐渐渗透到我们的日常生活中。在这
噪声环境下的语音识别挑战与解决方案
使用Python实现深度学习模型:智能家电控制与优化
Optimizer v16.7 开源免费的系统优化工具
AI大模型在农业和水资源管理中的应用1.背景介绍 1. 背景介绍 农业和水资源管理是人类生活和经济发展的基础。随着人口增

随便看看