阅读论文时的一些常见问题(持续更新)

目录

池化层在NLP应用

MLM是什么

  • 实际上就是掩码语言模型(Masked Language Model),比如大家常说的Bert、GPT、EMLo等都是属于MLM,只是掩码的种类不同而已。MLM的做法就是随机屏蔽输入序列的一些token,然后仅仅通过上下文来预测被屏蔽token的原单词表id。
  • 参考一参考二

多层感知器-MLP

全连接层到底用来干什么?

因子分解机

token和span

整理一下tensor的类型

深度学习中Attention与全连接层的区别何在?

张量操作

词嵌入维度,如何选择?

word2vec实现

相关文章

python方向·数据分析   ·自然语言处理nlp   案例:中...
原文地址http://blog.sina.com.cn/s/blog_574a437f01019poo....
ptb数据集是语言模型学习中应用最广泛的数据集,常用该数据集...
 Newtonsoft.JsonNewtonsoft.Json是.Net平台操作Json的工具...
NLP(NaturalLanguageProcessing)自然语言处理是人工智能的一...
做一个中文文本分类任务,首先要做的是文本的预处理,对文本...