技术巴巴

 找回密码
 立即注册
技术巴巴 首页 人工智能课程 查看内容

机器学习之常用优化算法

2019-3-11 20:18| 发布者: | 查看: 58| 评论: 0

摘要: 【课程介绍】 讲解梯度下降法的两种SGD、BGD,优化算法改进Momentum、Nesterov Momentum、AdaGrad、RMSProp、以及Adam算法。损失函数讲解到:softmax函数、交叉熵函数、均方误 ...
  • 1. 梯度下降讲解 5:00
  • 2. SGD和BGD 5:00
  • 3. 动量机及其改进 5:00
  • 4. adam 5:00

  • 路过

    雷人

    握手

    鲜花

    鸡蛋
    发表评论

    最新评论

    技术巴巴 ( 鄂ICP备14015590号-5 )

    GMT+8, 2020-12-27 10:38 , Processed in 0.024707 second(s), 22 queries .

    Powered by Discuz! X3.4

    © 2001-2013 Comsenz Inc.

    返回顶部