SyntaxNet由TensorFlow实现,本月Google正式开源了这一框架(GitHub),关于这一框架,我们可以参考相关论文。在准备完NPL的基础知识后,博主将在这篇博客介绍这篇论文:Global Normalized Transition-Based Neural Network。该架构的资料还来自谷歌研究博客

一、NPL基础

1.word2vec

        学习NPL,word2vec这一经典模型是一定要学习的,Google在2013年开源了word2vec,如同教科书一般,具有良好的性能和很快的训练速度,这里有一篇详细的原理说明,至于源码和例程,网上有很多,可以轻松训练自己的数据。当然,我们更强调原理,点击上面的链接学习原理很重要哟。

二、LSTM

三、SyntaxNex

留个坑,以后写,有兴趣点摘要部分给的链接,博主有时间回来补上自己东西。

发表评论

电子邮件地址不会被公开。 必填项已用*标注