AI,ML,gradient descent,paper,matlab AI,ML,gradient descent,paper,matlab
2023-03-19 16:40:53 1.16MB gradient descent
1
java笔试题算法超梯度下降 这是 ICLR 2018 论文的代码。 一个版本也在计划中,稍后会出现在这个 repo 中。 什么是“超梯度”? 在基于梯度的优化中,通过使用其关于模型参数的导数(梯度)来优化目标函数。 除了这个基本梯度之外,超梯度是相同目标函数相对于优化过程的超参数(例如学习率、动量或正则化参数)的导数。 可以有多种类型的超梯度,在这项工作中,我们对与标量学习率相关的超梯度感兴趣。 安装 pip install git+https://github.com/gbaydin/hypergradient-descent.git 我如何将它用于我的工作? 我们正在为 PyTorch 提供超梯度版本的 SGD(有或没有动量)和 Adam 优化器的现成实现。 这些符合torch.optim API,可用作代码中的直接替代品。 只需从这个 repo 中获取sgd_hd.py和adam_hd.py文件并像这样导入它们 from hypergrad import SGDHD , AdamHD ... optimizer = optim . AdamHD ( model . parame
2023-01-23 16:24:37 17.83MB 系统开源
1
armijo matlab代码 Steepest-descent-algorithm-Matlab- 用MATLAB实现最速下降法(使用梯度作为下降方向的无限制最优化方法)。使用Armijo准则找步长。 using MATLAB to do steepest descent algorithm(unconstrained optimization method that uses gratitude vector as descent direction), and find steps by Armijo principle. English version is placed behind the Chinese one. 一. 背景简述 1.最速下降法的常用的迭代格式为   min f(x) xk+1 = xk + αkdk, k =0,1,... x0为初始向量,dk为f(x)在xk处的下降方向,αk > 0为步长。 在最速下降法中,dk取负梯度方向-gk。步长采用Armijo准则进行非精确一维搜索。 2.Armijo准则: 设f(x)连续可微,dk是f(x)在xk处的下降方向
2022-10-24 08:56:56 1.61MB 系统开源
1
An overview of gradient descent optimization algorithms
2022-08-18 11:03:21 2.36MB 算法
1
gradient_descent 深度网络演示软件
2022-07-30 12:05:09 23.82MB 深度学习
1
参考: X. Qin、Z. Yan 和 G. He,“一种基于联合最速下降和 Jacobi 上行链路大规模 MIMO 系统的近最优检测方案”,IEEE 通信快报,第一卷。 20,没有。 2,第 276-279 页,2016 年 2 月,doi:10.1109/LCOMM.2015.2504506。
2022-04-28 19:57:49 1KB matlab
1
双下降火炬 利用PyTorch在MNIST,特别是其上的实现/复制双下降曲线。 要重现图9(a)和(c),请运行以下命令。 通过标志--reuse控制是否使用权重复用。 在一个1080ti gpu上创建一个图形大约需要15个小时。 python mnist_double_descent.py --reuse --verbose 1 重用体重 没有重量重用
2022-02-28 18:40:44 87KB Python
1
使用随机梯度下降法解决无约束优化问题。
2022-01-08 21:49:32 2KB matlab
1
fmin_adam:亚当随机梯度下降优化算法的Matlab实现
1
要测试该软件,请参阅包含的简单多层感知器脚本。 实现了以下优化算法:AMSgrad、AdaMax、Adadelta、Adam、Delta-bar Delta、Nadam 和 RMSprop。
2021-10-30 11:02:08 8KB matlab
1