为提高SAC型液压支架控制器的产品质量及检验效率,针对其电气特性及接口形式,根据煤矿井下的安全标志要求,设计了一套自动化检测平台。重点介绍支架控制单元组成,检测平台的硬件电路等软件程序设计;硬件部分采用ARM7芯片LPC2294为CPU设计,软件部分基于嵌入式实时操作系统uC/OS-II设计实现。该检测平台经投入实际使用,能够快速、可靠地完成控制器的检测,检测效率提高6倍以上。
2024-03-22 16:46:25 354KB 接口 嵌入式实时操作系统uC/OS-II
1
强化学习算法合集(DQN、DDPG、SAC、TD3、MADDPG、QMIX等等)内涵20+强化学习经典算法代码。对应使用教程什么的参考博客: 多智能体(前沿算法+原理) https://blog.csdn.net/sinat_39620217/article/details/115299073?spm=1001.2014.3001.5502 强化学习基础篇(单智能体算法) https://blog.csdn.net/sinat_39620217/category_10940146.html
2023-05-15 19:40:13 17.37MB 强化学习 人工智能 MADDPG TD3
1
* 请注意,SACPC2MAT 适用于小端机器(Linux 和 Windows PC),而 SACSUN2MAT 适用于像 SUN 这样的大端机器。 [SACdata,SeisData,filenames]=SACPC2MAT('file1','file2',...,'filen') [SACdata,SeisData,filenames]=SACSUN2MAT('file1','file2',...,'filen') 以 SUN 或 PC 字节顺序读取 n 个 SAC 文件 file1、file2、filen 并将它们转换为 MATLAB 格式。 文件名可以包含通配符(例如 * 和 ?)。 这些被展开并加载所有匹配的文件。 SACPC2MAT( cellarray ) 其中 cellarray={'file1','file2',...,'filen'} 等效于标准形式。 SACda
2023-03-17 11:37:32 14KB matlab
1
流行的无模型强化学习算法 PyTorch和Tensorflow 2.0在Openai体育馆环境和自行实现的Reacher环境中均实现了最新的无模型强化学习算法。 算法包括软参与者关键(SAC),深度确定性策略梯度(DDPG),双延迟DDPG(TD3),参与者关键(AC / A2C),近端策略优化(PPO),QT-Opt(包括交叉熵( CE)方法) , PointNet ,运输商,循环策略梯度,软决策树等。 请注意,此存储库更多是我在研究和实施期间实施和测试的个人算法集合,而不是正式的开放源代码库/软件包以供使用。 但是,我认为与他人分享它可能会有所帮助,并且我希望对实现进行有益的讨论。 但是我没有花太多时间在清理或构建代码上。 您可能会注意到,每种算法可能都有几种实现方式,在此我特意展示所有这些方式,供您参考和比较。 此外,此存储库仅包含PyTorch实施。 对于RL算法的官方库,
1
盆式PPO 关于沉思-PPO 这是Pensieve [1]的一个简单的TensorFlow实现。 详细地说,我们通过PPO而非A3C培训了Pensieve。 这是一个稳定的版本,已经准备好训练集和测试集,并且您可以轻松运行仓库:只需键入 python train.py 反而。 将每300个时代在测试集(来自HSDPA)上评估结果。 实验结果 我们报告了熵权重β,奖励和熵的训练曲线。 通过双簧管网络轨迹评估结果。 提示:橙色曲线:pensieve-ppo; 蓝色曲线:pensieve-a2c 预训练模型 此外,我们还在添加了预训练模型 与原始Pensieve模型相比,该模型的平均QoE提高了7.03%(0.924-> 0.989)。 如果您有任何疑问,请随时告诉我。 [1] Mao H,Netravali R,Alizadeh M.带自适应神经网络自适应视频流[C] // ACM数据
2023-02-16 13:49:26 2.71MB reinforcement-learning dqn pensieve ppo
1
sac操作手册-地震数据处理
2022-10-24 12:00:40 2.82MB sac
1
rdmseed:读取迷你种子文件 每个数据记录被导入到一个结构数组中,允许分别添加数据块和头字段(对于多通道文件很有用),就像用一个简单的cat(1,X.d)函数连接所有数据一样。时间戳也被转换为Matlab datenum格式。该函数使用两种常用的压缩格式Steim-1和Steim-2来读取“仅数据”的迷你种子。通用FDSN格式也得到了实现(ASCII、16/24/32位整数、IEEE浮点数和双数),以及GEOSCOPE多路复用旧格式(24位、16/3或16/4位增益范围)。所有这些格式都应该能够工作,但其中一些还没有使用真实数据进行测试。我还部分编码了Steim-3格式,但没有明确的描述和任何文件示例……由于我从未遇到过使用这种格式的数据文件,我不知道它是否真的有用。 该函数还自动检测大/小端编码文件。
2022-09-22 09:01:32 4.46MB massdyg miniseed mseed mseed2sac
在仿真环境vrep中,采用SAC(可收敛,之前发现网上有几个版本SAC不收敛),以opencv目标检测坐标为状态输入,以质点坐标为动作输出,奖励值设计为xy平面上四旋翼和小车的距离。当中还有TD3算法。可以熟悉vrep端口调用,一点目标检测算法,一点RL算法。
2022-09-15 09:09:37 575KB 强化学习 目标跟踪 视觉伺服 SAC
1
多代理SAC 介绍 环境。 在这种环境下,两名特工控制球拍在球网上弹跳球。 如果探员将球击中网,则得到+0.1的奖励。 如果探员让一个球击中地面或将球击出界外,则其获得的奖励为-0.01。 因此,每个特工的目标是保持比赛中的球权。 观察空间由8个变量组成,分别对应于球和球拍的位置和速度。 每个代理都会收到自己的本地观察结果。 有两个连续的动作可用,分别对应于朝向(或远离)网络的运动和跳跃。 该任务是情节性的,并且为了解决环境,您的特工必须获得+0.5的平均分数(在两个特工均取得最高分后,连续100次以上)。 具体来说, 在每个情节之后,我们将每个代理商获得的奖励加起来(不打折),以获得每个代理商的得分。 这将产生2个(可能不同)的分数。 然后,我们取这两个分数中的最大值。 这为每个情节产生一个单一的分数。 当这些分数的平均值(超过100集)至少为+0.5时,就认为环境已解决。
1