@理解attention机制,从R语言的角度出发

@理解attention机制,从R语言的角度出发

问题由来

attention机制很好地利用了局部信息,借助相似关系找到了注意点,从而提升了深度模型效果;同时transformer使用到了位置信息。那么attention 到底是在干啥呢?用程序语言怎么把这个东西直白地展现出来呢?

解决方案

  1. 读attention原文
  2. 读transformer原文
  3. 用程序实现算法,从代码实战角度理解这些计算机名词,并将这些计算机名词通俗化,让其不再神秘,展现原来面貌!

你可能感兴趣的:(R语言数据研究,python,r语言,深度学习)