可能会绕过RNN了

最近看了一些关于nlp技术路线的文章,自从2018年bert之后,nlp的重点似乎已经从rnn转移到transformer。

在之前已经学习了lstm和gru,看了一下之后几天的学习安排,主要是基于crf的依存分析和命名实体辨别。我会尽量使用hanlp(这个库已经能够较好完成以上的需求)。

因为Allenlp是基于pytorch,有可能还要看pytorch。进一步还会仔细拆一下transformer,越过底层机制,尽可能调用库来实现一些项目。

你可能感兴趣的:(可能会绕过RNN了)