Revisiting Graph Contrastive Learning from the Perspective of Graph Spectrum----NeurIPS 2022
2022-10-30 12:04:54 2.1MB 科研 论文阅读
1
NIPS-2017-attention-is-all-you-need-Paper 中文翻译版 有导航目录,看起来很方便
2022-05-19 09:10:19 636KB 深度学习 transformer 注意力 论文翻译
1
NIPS的论文,喜欢下载吧!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
2022-05-08 09:28:05 59B NIPS
1
NIPS'14-SSL 使用深度生成模型重现我们的 NIPS 2014 论文关于半监督学习 (SSL) 的一些关键结果的代码。 DP Kingma、DJ Rezende、S. Mohamed、M. Welling 具有深度生成模型的半监督学习神经信息处理系统的进展 27 ( NIPS 2014 ),蒙特利尔 使用此代码进行研究时,请引用本文。 警告:此代码远未完全注释。 对于问题和错误报告,请发送电子邮件至dpkingma[at]gmail.com 。 先决条件 确保安装了以下最新版本: Python(2.7 或更高版本) Numpy(例如pip install numpy ) Theano(例如pip install Theano ) 在 Theano 配置的[global]部分(通常是~/.theanorc )中设置floatX = float32 。 或者,您可以在
2022-02-20 17:46:43 152.14MB Python
1
NeurIPS 2020已经开完会,本文发现元学习(Meta Learning)相关的接受paper不少,元学习在CV、NLP等各个领域的应用也比较火热,值得研究者们细心学习。
2022-02-05 16:51:55 4.6MB NIPS_2020 元学习
1
arxiv样式:用于纸预印本的Latex样式和模板(基于NIPS样式)
2021-12-23 10:54:13 196KB latex paper preprints latex-template
1
少量学习的原型网络 NIPS 2017论文》的代码。 如果您使用此代码,请引用我们的论文: @inproceedings{snell2017prototypical, title={Prototypical Networks for Few-shot Learning}, author={Snell, Jake and Swersky, Kevin and Zemel, Richard}, booktitle={Advances in Neural Information Processing Systems}, year={2017} } 训练原型网络 安装依赖 该代码
2021-10-08 09:58:44 209KB deep-learning pytorch metric-learning nips-2017
1
PredRNN:时空预测学习的递归神经网络 时空序列的预测性学习旨在通过从历史情境中学习来生成未来的图像,其中视觉动态被认为具有可通过成分子系统学习的模块化结构。 NeurIPS 2017的第一个版本 此存储库首先包含PredRNN (2017)的PyTorch实现[ ],这是一个循环网络,具有一对以几乎独立的过渡方式运行的存储单元,最后形成了复杂环境的统一表示。 具体而言,除了LSTM的原始存储单元外,该网络还具有锯齿形存储流,该存储流以自下而上和自上而下的方式在所有层中传播,从而使学习到的RNN级别的视觉动态能够进行通信。 PredRNN-V2(2021)的新功能 此回购还包括PredRNN-V2 (2021)的实现[],它在以下两个方面改进了PredRNN。 1.内存解耦 我们发现PredRNN中的一对存储单元包含不良的冗余功能,因此会出现存储解耦损失,从而鼓励他们学习视觉动力学的
1
NIPS-2017-attention-is-all-you-need-Paper.pdf
2021-08-09 21:05:45 556KB nlp
1
绿盟NIPS官方小哥发的配置手册
2021-06-07 11:00:08 1.66MB 绿盟NIPS 绿盟科技
1