skip-gram:一种用于构建词向量(word embeddings)的语言模型/训练方法。它以“中心词”去预测其上下文词;与 CBOW 相对,skip-gram 更侧重用单个词去解释周围多个词,常用于 word2vec 训练。
/ˈskɪp ɡræm/
The skip-gram model learns word vectors by predicting surrounding words.
Skip-gram 模型通过预测周围词来学习词向量。
In large-scale text mining, skip-gram with negative sampling is often chosen because it captures rare-word relationships more effectively than some alternatives.
在大规模文本挖掘中,人们常选用带负采样的 skip-gram,因为它比一些替代方法更能有效捕捉罕见词之间的关系。
该词由 skip(“跳过”)和 gram(源自表示“书写/记录”的词根,常见于 n-gram)组合而来。含义是“允许跳过中间词的 n-gram/上下文建模思路”,在实践中发展为以中心词预测上下文的训练框架,广泛用于词向量学习。