^ _ ^
Reference
Word Embedding Tutorial | Word2vec Model Gensim Example
What is Word Embedding?
- Word Embedding是一种将自然语言词映射成为向量表示的技术.
- Word Embedding又被称为分布式表示, 因为它本质上是根据词的上下文来表示一个词的.
- Word Embedding的目的一个是让词的向量表示可以控制在一个指定维度下; 一个是让相似的词向量之间的距离更相近, 不相似的词向量之间的距离更相远.
Word Embedding Techonology
- Word2Vec(Google)
- Glove(Stanford)
- Fastest(Facebook)
Word2Vec
CBOW(Continuous Bag of words)
基于一个词的上下文窗口内的词来预测当前词.
Skip Gram
基于一个词去预测它的上下文窗口中出现的词.