首页 文章

CBOW word2vec中特定单词的向量是什么?

提问于
浏览
0

经典的CBOW word2vec看起来像:

CBOW word2vec scheme

这个方案中特定单词的向量是什么?它是如何从WI和WO矩阵中获得的?或者有用的单词向量只能从Skip-gram word2vec获得?

1 回答

  • 1

    关于您已经显示的图表,WI矩阵中的每一行都是一个字向量 . (训练结束后,当您向模型询问'cat'之类的单词时,它会找出从0到V的哪个插槽存储'cat',然后返回WI矩阵的那一行 . )

    WI用随机的低幅度矢量初始化 . 在训练开始时,WO被留作零 . 在训练期间,通过反向传播校正微调重复改进各行WO和WI,以使网络的输出层更加预测每个(上下文) - >(单词)训练示例 .

    对于skip-gram,您可以将此图中的输入层视为单个上下文输入字的单热编码 . 对于CBOW,您可以将此图中的输入层视为将多字上下文中的每个字的计数视为xi值 - 最零(稀疏) . 在CBOW的实践中,在WI中查找每个单词并对它们的单词向量进行平均以创建隐藏层激活 .

    skip-gram和CBOW都可以在WI中创建有用的单词向量 .

相关问题