角膜外科医生 一个用于在经过训练的Keras模型上进行网络手术的库。 对于深度神经网络修剪很有用。 Keras外科医生提供了简单的方法来修改训练有素的模型。 当前实现了以下功能: 从图层中删除神经元/通道 删除图层 插入图层 替换图层 Keras-Surgeon与任何模型架构兼容。 一次遍历网络可以修改任意数量的层。 这些修改有时被称为网络手术,这激发了该软件包的名称。 背景 这个项目的动机是我对深度学习的兴趣以及对尝试使用研究文献中已经了解的一些修剪方法进行试验的愿望。 我创建此程序包是因为找不到从Keras模型中修剪神经元的简单方法。 希望对其他人有用。 安装 使用pip从安装Keras-Surgeon。 pip install kerassurgeon 如果您要安装示例的依赖项,请执行以下操作: pip install kerassurgeon[examples] 它
2023-04-10 20:42:21 31KB deep-learning keras pruning network-surgery
1
是原作者英文文献
2022-09-19 11:05:51 141KB
1
过滤器中的修剪过滤器 介绍 这是NeurIPS 2020论文“”的PyTorch实施。 在本文中: 我们提出了一种新的修剪模式,称为条带化修剪(SP),可以将其视为过滤修剪(FP)的一般情况。 SP将过滤器$ F \ in \ mathbb {R} ^ {C \ timesK \ times}}视为$ K \ timesK $条带(即,$ 1 \ times $$过滤器$ \ in \ mathbb {R} ^ c $),并以条带为单位而不是整个过滤器执行修剪。 与现有方法相比,SP具有比传统FP更好的粒度,同时比Weight-Pruning更加硬件友好,并且与Group-wise Pruning相比保持了过滤器之间的独立性,从而在CIFAR-10和ImageNet上实现了最先进的修剪率。 更令人振奋的是,通过应用SP,我们发现过滤器的另一个重要特性与重量无关:形状。 从随机初始化的R
2022-07-08 16:12:34 3.68MB skeleton stripe cuda pytorch
1
CLIP-Q: Deep Network Compression Learning by In-Parallel Pruning-Quantization,CVPR2018 code
2022-06-30 20:06:33 13.12MB CLIP-Q
spec-img-finesse 在他们的工作Makantasis等。 (2015年)表明,使用CNN,高光谱图像可以成功分类。 CNN可以对像素的光谱和空间特征进行编码。 特征的从低到高层次结构极大地提高了分类性能。 在我们的CNN实施中,我们使用层修剪和层压缩方法扩展和优化了它们的方法。 每个植物在电磁频谱上都有其独特的频谱“特征”,可以使用高光谱传感器捕获该特征。 将图像中的高光谱带作为特征,将每个像素作为样本,利用卷积神经网络(CNN)和支持向量机(SVM)对植物进行分类。 CNN优化有助于防止过拟合,加速推理并减少其在内存,电池和计算能力方面的资源。 Keras 2.1.5与Tensorflow 1.7.0结合使用。 使用了印度松树数据集。 使用支持多项式的SVM可以达到83.9%的测试精度,而使用CNN可以达到99.2%的测试精度。 可以在项目报告“使用高光谱图像进行植
1
深度压缩压缩深度神经网络,并带有经过修剪训练的量化和霍夫曼算法 这是文件的pytorch实现。 Pytorch版本:0.4.0
2022-05-16 09:58:23 6KB deep-learning pytorch Python
1
yolov3 yolov4 channel and layer pruning, Knowledge Distillation 层剪枝,通道剪枝,知识蒸馏 yolov3-channel-and-layer-pruning 本项目以ultralytics/yolov3为基础实现,根据论文Learning Efficient Convolutional Networks Through Network Slimming (ICCV 2017)原理基于bn层Gmma系数进行通道剪枝,下面引用了几种不同的通道剪枝策略,并对原策略进行了改进,提高了剪枝率和精度;在这些工作基础上,又衍生出了层剪枝,本身通道剪枝已经大大减小了模型参数和计算量,降低了模型对资源的占用,而层剪枝可以进一步减小了计算量,并大大提高了模型推理速度;通过层剪枝和通道剪枝结合,可以压缩模型的深度和宽度,某种意义上实现了针对不同数据集的小模型搜索。 项目的基本工作流程是,使用yolov3训练自己数据集,达到理想精度后进行稀疏训练,稀疏训练是重中之重,对需要剪枝的层对应的bn gamma系数进行大幅压缩,理想的压缩情况如下图,
2022-05-04 21:02:31 1.4MB Python Deep Learning
1
https://download.csdn.net/download/weixin_32759777/12346888这个代码的训练集2
2022-04-24 20:29:51 164.78MB 网络剪枝
1
https://download.csdn.net/download/weixin_32759777/12346888这个代码的训练集1
2022-04-24 20:20:24 163.39MB 网络剪枝数据集合
1
matlab精度检验代码神经网络修剪 描述 神经网络修剪是压缩单个隐藏层神经网络以减小模型大小的方法。 该机器学习算法专门针对物联网设备和其他边缘设备等资源受限的环境而开发。 修剪方法基于通过将相应的权重设为零来从网络中删除神经连接。 该策略源自以下论文:“学习有效的神经网络的权重和连接”,宋涵,杰夫·普尔,约翰·特兰,威廉·J·达利。 NIPS,2015年。 用法 源文件:存储库包含五个用于神经网络修剪的Matlab(.m)文件。 NeuralNetSparse.m,train.m和predict.m是主要的源文件。 nnCostFunction.m和fmincg.m是有助于使用梯度下降训练网络的支持文件。 源文件说明: “ NeuralNetSparse.m”是主文件,其中包含训练网络所需的所有超参数,数据集和训练参数。 不同的超参数可帮助用户训练具有不同配置的神经网络,从而有助于优化精度与模型尺寸之间的权衡。 给定内存预算约束取决于底层设备的限制,那么在稀疏网络和超薄网络之间要进行权衡。 这种权衡取决于所使用的数据集,学习率和内存预算。 因此,为了找出最佳配置,NeuralNet
2022-03-29 09:35:21 48KB 系统开源
1