首页 文章

使用scikit-learn矢量化器和词汇表与gensim

提问于
浏览
13

我正在尝试使用gensim主题模型回收scikit-learn矢量化器对象 . 原因很简单:首先,我已经有了大量的矢量化数据;第二,我更喜欢scikit-learn矢量化器的界面和灵活性;第三,尽管使用gensim的主题建模速度非常快,但根据我的经验计算其词典( Dictionary() )相对较慢 .

之前已经提出了类似的问题,especially herehere,桥接解决方案是gensim的 Sparse2Corpus() 函数,它将Scipy稀疏矩阵转换为gensim语料库对象 .

但是,此转换不会使用sklearn矢量化程序的 vocabulary_ 属性,该属性包含单词和要素ID之间的映射 . 此映射对于打印每个主题的判别词是必要的(在gensim主题模型中为 id2word ,描述为"a a mapping from word ids (integers) to words (strings)") .

我知道gensim的 Dictionary 对象比scikit的 vect.vocabulary_ (一个简单的Python dict )复杂得多(并且计算速度慢)......

在gensim模型中使用 vect.vocabulary_ 作为 id2word 的任何想法?

一些示例代码:

# our data
documents = [u'Human machine interface for lab abc computer applications',
        u'A survey of user opinion of computer system response time',
        u'The EPS user interface management system',
        u'System and human system engineering testing of EPS',
        u'Relation of user perceived response time to error measurement',
        u'The generation of random binary unordered trees',
        u'The intersection graph of paths in trees',
        u'Graph minors IV Widths of trees and well quasi ordering',
        u'Graph minors A survey']

from sklearn.feature_extraction.text import CountVectorizer
# compute vector space with sklearn
vect = CountVectorizer(min_df=1, ngram_range=(1, 1), max_features=25000)
corpus_vect = vect.fit_transform(documents)
# each doc is a scipy sparse matrix
print vect.vocabulary_
#{u'and': 1, u'minors': 20, u'generation': 9, u'testing': 32, u'iv': 15, u'engineering': 5, u'computer': 4, u'relation': 28, u'human': 11, u'measurement': 19, u'unordered': 37, u'binary': 3, u'abc': 0, u'for': 8, u'ordering': 23, u'graph': 10, u'system': 31, u'machine': 17, u'to': 35, u'quasi': 26, u'time': 34, u'random': 27, u'paths': 24, u'of': 21, u'trees': 36, u'applications': 2, u'management': 18, u'lab': 16, u'interface': 13, u'intersection': 14, u'response': 29, u'perceived': 25, u'in': 12, u'widths': 40, u'well': 39, u'eps': 6, u'survey': 30, u'error': 7, u'opinion': 22, u'the': 33, u'user': 38}

import gensim
# transform sparse matrix into gensim corpus
corpus_vect_gensim = gensim.matutils.Sparse2Corpus(corpus_vect, documents_columns=False)
lsi = gensim.models.LsiModel(corpus_vect_gensim, num_topics=4)
# I instead would like something like this line below
# lsi = gensim.models.LsiModel(corpus_vect_gensim, id2word=vect.vocabulary_, num_topics=2)
print lsi.print_topics(2)
#['0.622*"21" + 0.359*"31" + 0.256*"38" + 0.206*"29" + 0.206*"34" + 0.197*"36" + 0.170*"33" + 0.168*"1" + 0.158*"10" + 0.147*"4"', '0.399*"36" + 0.364*"10" + -0.295*"31" + 0.245*"20" + -0.226*"38" + 0.194*"26" + 0.194*"15" + 0.194*"39" + 0.194*"23" + 0.194*"40"']

4 回答

  • 2

    Gensim不需要 Dictionary 对象 . 您可以直接使用普通 dict 作为 id2word 的输入,只要它将ids(整数)映射到单词(字符串)即可 .

    实际上任何类似dict的都会(包括 dictDictionarySqliteDict ......) .

    (顺便说一下gensim的 Dictionary 是一个简单的Python dict . 不知道你对 Dictionary 性能的评论来自哪里,你不能比Python中的普通_605448更快地获得映射 . 也许你会把它与文本预处理混淆(不是它的一部分) of gensim),这确实很慢 . )

  • 4

    只是为了提供一个最后的例子,scikit-learn 's vectorizers objects can be transformad into gensim'的语料库格式与 Sparse2Corpus ,而词汇表 dict 可以通过简单地交换键和值来回收:

    # transform sparse matrix into gensim corpus
    corpus_vect_gensim = gensim.matutils.Sparse2Corpus(corpus_vect, documents_columns=False)
    
    # transform scikit vocabulary into gensim dictionary
    vocabulary_gensim = {}
    for key, val in vect.vocabulary_.items():
        vocabulary_gensim[val] = key
    
  • 3

    我也使用这两个代码进行了一些代码实验 . 显然,有一种方法可以从语料库中构建字典

    from gensim.corpora.dictionary import Dictionary
    dictionary = Dictionary.from_corpus(corpus_vect_gensim,
                                        id2word=dict((id, word) for word, id in vect.vocabulary_.items()))
    

    然后,您可以将此字典用于tfidf,LSI或LDA模型 .

  • 11

    提出答案,因为我还没有50的声誉 .

    直接使用vect.vocabulary_(键和值互换)将无法在Python 3上运行,因为dict.keys()现在返回一个可迭代视图而不是列表 . 相关的错误是:

    TypeError: can only concatenate list (not "dict_keys") to list
    

    要使其在Python 3上运行,请将lsimodel.py中的第301行更改为

    self.num_terms = 1 + max([-1] + list(self.id2word.keys()))
    

    希望这可以帮助 .

相关问题