Glove 其实就是 加权最小二乘,而且理论上还不是很严谨。 为了建立更严谨的理论基础,我在国际学术会议 iccip 2021 发表了一个名为 extremal glove 的算法。 为什么目前bert预训练词向量效果很好,但论文中提出的模型仍然使用glove静态词向量进行实验? 如题,请教一下。 是因为类似于glove这种静态词向量更能考验模型的性能吗? 显示全部 关注者 21 被浏览 预训练词向量的意义 从 word2vec、glove、fasttext 等上下文无关词向量,到 elmo,gpt,bert 等上下文相关词向量的这一系列预训练词向量的意义主要有以下几点: 可以以较低的维度表示每一次词,避免了 curse of dimension 引入了 prior knowledge。
How Many Glove Stands Are in Slap Battles? Unveiling the Answer! Playbite


