Theme NexT works best with JavaScript enabled
0%

Word Embedding

^ _ ^

Reference

Word Embedding Tutorial | Word2vec Model Gensim Example

What is Word Embedding?

  • Word Embedding是一种将自然语言词映射成为向量表示的技术.
  • Word Embedding又被称为分布式表示, 因为它本质上是根据词的上下文来表示一个词的.
  • Word Embedding的目的一个是让词的向量表示可以控制在一个指定维度下; 一个是让相似的词向量之间的距离更相近, 不相似的词向量之间的距离更相远.

Word Embedding Techonology

  1. Word2Vec(Google)
  2. Glove(Stanford)
  3. Fastest(Facebook)

Word2Vec

CBOW(Continuous Bag of words)

基于一个词的上下文窗口内的词来预测当前词.

Skip Gram

基于一个词去预测它的上下文窗口中出现的词.