Python中使用word2vec训练词向量,分词后依然没有对应词怎么办?

我用结巴分词后用 gensim 训练得到词向量,训练模型时但是会报"word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '拍张' not in vocabulary" "word '拍张' not in vocabulary" 这样的错误,求助


Python中使用word2vec训练词向量,分词后依然没有对应词怎么办?
12 回复

首先确定你想找的词在真的出现过 (你确定分词会分出来“无鞍”这种词?)

其次 word2vec 会自动忽略出现过 n 次以下的词,n 好像等于 5 (“无鞍”这种词即使出现过,次数应该也很少)


遇到这种情况,通常是训练语料里没这个词。Word2vec只会为训练时见过的词生成向量。如果分词后某个词不在词汇表里,那它就没对应的向量。

处理办法很简单,要么扩大训练语料让模型学到这个词,要么用预训练模型。用gensim的话,可以这样处理:

from gensim.models import Word2Vec
import jieba

# 假设这是你的训练数据
sentences = [list(jieba.cut("这是一个测试句子")), 
             list(jieba.cut("另一个训练文本"))]

# 训练模型
model = Word2Vec(sentences, vector_size=100, window=5, min_count=1, workers=4)

# 检查词是否存在
word = "测试"
if word in model.wv:
    vector = model.wv[word]
    print(f"找到词向量,维度:{vector.shape}")
else:
    print(f"词汇表中没有'{word}'")
    
# 对于OOV词,可以尝试找相似词
if word not in model.wv:
    similar_words = model.wv.most_similar(positive=[word], topn=3) if word in model.wv else []
    print(f"建议使用这些相似词:{similar_words}")

如果必须处理未登录词,可以考虑:

  1. 用fastText代替Word2vec,它能通过子词信息处理新词
  2. 使用更大的预训练中文词向量
  3. 检查分词是否正确,有时候是分词工具没切出那个词

总结:要么扩充语料,要么换用fastText。

有个按词频低于多少就丢弃的参数

你在分词之后转成 w2v 之前先对数据做一道预处理,如果是出现 out of vocabulary 你就直接生成一个同样尺寸的随机词向量。
如果在训练 w2v 的语料已经经过预处理,其中包括一个特殊的 UNK 单词,那你直接用 UNK 的向量来表示当前 OOV 的词也可以。

min_count wo 我设置的是 5,但是不在词表中的词出现 oov 提示了 67 次的也有,无鞍这词是 jieba 自己分出来的,我也很无语

统一是 utf-8,在 ubuntu 上搞的,应该没有编码问题,但是"." “,” “000” " "这样的也会提示 oov

看 5 楼。。。。。

我是设置的全 0 向量可以吗? UNK 是什么意思?

UNK 就是指某个单词是未登录词,比如你预处理时,把所有低于5词频的单词替换成一个特殊标识’UNK’,那么所有的罕见词在训练时就会被当作是同一个词来训练。当出现 oov 时,用这个特殊的未登录词向量来表示该词。
当然以上仅是一种简单粗暴的作法,与全随机或全0向量并无本质区别…

哦,用 jieba 自己的词典分词感觉分出来的有些莫名其妙,是不是指定了用自己的词典,结巴自带的词典就失效了啊

jieba 自己的词典不会失效。jieba 里面有新词发现功能,用的 HMM,默认是开启的,所以会去产生一些奇怪的结果出来,你可以把这个选项关掉,不过这样如果有词没有出现在词表里,就会分成一个一个字。

<br>text = "blablabla..."<br>jieba.lcut(text, HMM=True) # 默认行为<br>jieba.lcut(text, HMM=False) # 关闭 HMM<br>

很有可能是编码的问题

回到顶部