一种将词语映射到连续向量空间的算法/模型(词向量),通过学习大规模语料中的上下文关系,使语义相近的词在向量空间中距离更近。常见架构包括 Skip-gram 与 CBOW。(也常泛指“词向量”本身。)
/ˈwɝːd tuː ˈvɛk/
I trained a word2vec model on news articles.
我在新闻文章语料上训练了一个 word2vec 模型。
Using word2vec embeddings, the classifier captured subtle semantic differences between customer complaints and feature requests.
使用 word2vec 词向量后,分类器能够捕捉到“客户投诉”和“功能需求”之间细微的语义差别。
“word2vec” 是由 word(词)+ to(到/映射到)+ vec(vector,向量的缩写)组合而成的技术名称,表示“把词映射为向量”。该名称因 Tomas Mikolov 等人在 2013 年发表的一系列论文与工具而广泛流行。