词向量2

word2vec

20190305学习得到的新的感悟

之前,我一直认为word2vec得到的词向量是输入层和隐层之间的参数,我其实对这句话的理解并不深入。

这句话本质上是没有错的,但是更加准确的说法应该是:

每个单词的one-hot词向量模式乘以这个权重矩阵得到的是相对应的单词的word2vec词向量。

这一次学习我主要参考了几篇文章
word2vec是如何得到词向量的? - crystalajj的回答 - 知乎
https://www.zhihu.com/question/44832436/answer/266068967

一篇通俗易懂的word2vec - susht的文章 - 知乎
https://zhuanlan.zhihu.com/p/35500923

[NLP] 秒懂词向量Word2vec的本质 - 穆文的文章 - 知乎
https://zhuanlan.zhihu.com/p/26306795

理解word2vec的训练过程
word2vec和word embedding有什么区别? - Scofield的回答 - 知乎
https://www.zhihu.com/question/53354714/answer/155313446

理解 Word2Vec 之 Skip-Gram 模型 - 天雨粟的文章 - 知乎
https://zhuanlan.zhihu.com/p/27234078

下面这个博文介绍了词向量的发展史
词向量表示方法梳理 - 一只松鼠的文章 - 知乎
https://zhuanlan.zhihu.com/p/46026058

NLP的游戏规则从此改写?从word2vec, ELMo到BERT - 夕小瑶的文章 - 知乎
https://zhuanlan.zhihu.com/p/47488095
深度学习(Deep Learning)·自然语言处理(NLP)·表示(Representation)

word2vec原理(一) CBOW与Skip-Gram模型基础-博客园刘建平

CS224n提供了几个参考链接

原文地址:https://www.cnblogs.com/lzida9223/p/10535932.html