工具
keras [中文]
Tushare Pro
plt
gym(openAI)
可能有用的网站
Colaboratory(墙)
Google的免费AI训练网站,有账号就能够在上面使用一定的资源进行计算
嗯……有TPU
PaperWeekly
可以看到许多不错的论文推荐之类的东西
不过似乎没有在更新了,最新的一篇也只是2017年的东西了
但是里面的东西对个人还是挺有学习价值的
修正:PaperWeekly新地址,似乎在这边更新了,似乎要注册才能看
fastAI
据说是个好东西?不过还没看
相关教程及文档
gym
https://www.jianshu.com/p/cb0839a4d1d3
plt
http://www.cnblogs.com/wei-li/archive/2012/05/23/2506940.html#pyplot
Python
菜鸟基础教程
如果忽然忘了一些Python的基础操作可以在这里找
《利用Python进行数据分析·第2版》
前几章详细地介绍了numpy等工具的利用,可以用于参考
Keras
中文文档
LSTM详解
因为是中文所以看着比较轻松,但是和英文相比有许多不全的地方
找不到或者不详尽的地方还是要看英文的文档
英文文档
英文,相对中文文档来说资料更全更新一些,在中文文档不够用的时候就要上了
tensorflow
含有基于keras的高级API教程和一些文档API
也有一些对基本模型的讨论和讲述
以后想要自定义keras的训练层的时候可能会需要在这里找文档
对于tensorflow的新功能也可以在这里多看看了解一下
官方例子
很棒的例子,代码简洁,有助于理解keras的使用和对部分网络结构的熟悉
不过建议只用来理解,真正做的时候看一下文档,因为部分例子里没有文档里的一些更方便的东西
(比如说在我写这篇的时候,seq2seq就没有使用embedding层,也没有忽略0数据
(不过更新似乎一直在继续,也许之后会看到更有效率的做法吧
基础概念
损失函数
https://zhuanlan.zhihu.com/p/34667893
https://blog.csdn.net/u010312436/article/details/78449632
模型
RNN
seq2seq
Sequence to Sequence Learning with Neural Networks
关于seq2seq的介绍
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
里面涉及到的原论文中给出了GRU单元的算法以及概率的计算,可以较为清楚地了解GRU这个东西,还有seq2seq的原理
attention-is-all-you-need-keras
含有自定义程度较高的keras的seq2seq实现
attention
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE
关于注意力模型的论文
知乎上对论文的中文介绍和理解
自然语言处理中的Attention Model:是什么及为什么
将引入注意力模型的原因和详细的解释一步步的说了出来,很清晰
deep-learning-nlp-best-practices
比较全面的介绍
以Attention Model为例谈谈两种研究创新模式
对注意力模型的总结回顾和拓展
深度学习笔记——Attention Model(注意力模型)学习总结
CDRextraction
似乎含有keras的attentionLayer实现
AttentionIsAllYouNeed
不含有RNN和CNN的纯粹注意力模型论文
keras实践:attention-is-all-you-need-keras
可能需要的参考:
Layer Normalization
你是怎样看待刚刚出炉的 Layer Normalisation 的?
GAN
待填
知识图谱
《知识图谱》专题论文解读
还没看,之后评价