MNIST手写字识别 ReLU激活函数 规则化 识别率最高可达到97.5
2021-05-25 16:48:28 16.51MB MNIST ReLU激活函数 规则化
1
本资源详细解读了经典论文ImageNet Classification with Deep Convolutional Neural Networks,主要介绍ALexNet的架构、特点、计算流程
2021-05-24 10:59:31 4.63MB 卷积层 池化 激活函数 归一化
1
本项目的所有代码均已在Python3.6及Pycharm平台调试通过,除了代码外,还提供《卷积神经网络(CNN)详解与代码实现》文档和《Notes on Convolutional Neural Networks》文档,其中:《卷积神经网络(CNN)详解与代码实现》主要从卷积神经网络结构、代码实现流程图以及介绍、代码实现、注意事项、运行结果以及分析、Softmax函数详解与推导、BP算法、CNN的反向求导等方面重点描述,十分详细;代码也增加不少的注释,有助于大家了解;《Notes on Convolutional Neural Networks》是麻省理工Jake Bouvrie写的非常详细。
2021-05-08 09:11:34 146.51MB 卷积神经网络CNN Python3.6 卷积 激活函数
1
派托奇的SIREN SIREN-Pytorch实现。 安装 $ pip install siren-pytorch 用法 基于SIREN的多层神经网络 import torch from torch import nn from siren_pytorch import SirenNet net = SirenNet ( dim_in = 2 , # input dimension, ex. 2d coor dim_hidden = 256 , # hidden dimension dim_out = 3 , # output dimension, ex. rgb value num_layers = 5 ,
1
本资源主要是可视化各种激活函数:Relu,sigmoid ,swish,mish等,只需要依赖numpy,不需要安装pytorch,只是一个简单的demo
1
不连续激活函数的时滞神经网络的多稳定性
2021-03-19 18:09:16 640KB 研究论文
1
今天小编就为大家分享一篇tensorflow自定义激活函数实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2021-03-08 15:20:11 61KB tensorflow 自定义 激活函数
1
为了提高卷积神经网络(CNN)在图像隐写分析领域的分类效果,构建了一个新的卷积神经网络模型(steganalysis-convolutional neural networks,S-CNN)进行隐写分析。该模型采用两层卷积层和两层全连接层,减少了卷积层的层数;通过在激活函数前增加批量正规化层对模型进行优化,避免了模型在训练过程中陷入过拟合;取消池化层,减少嵌入信息的损失,从而提高模型的分类效果。实验结果表明,相比传统的图像隐写分析方法,该模型减少了隐写分析步骤,并且具有较高的隐写分析准确率。
1
神经网络最全激活函数,包括sigmoid,tanh,ReLU,ELU,PReLU,softplus,liner等激活函数,应有尽有
2019-12-21 20:45:40 1KB matlab 激活函数
1