我在python 2.7.3上使用pip install安装了nltk。当我运行这些命令 import nltk
from nltk.corpus import wordnet as wn
dog = wn.sysnet('dog.n.01')
我碰到下面的错误.. Traceback (most recent call last):
File "<stdin>", line 1, in
从Creating a subset of words from a corpus in R,回答者可以很容易地将一个term-document matrix转换成一个文字云很容易。 是否有类似于python库的函数,它可以将原始文本文件或NLTK语料库或Mmcorpus转换为词云? 结果看起来有点像这样:
从本网站的答案中学习了加载(谢谢!),终于有时间来问我自己的问题了。 我正在使用R(tm和lsa包)创建,清理和简化,然后对大约15,000个文本文档的语料库运行LSA(潜在语义分析)。我在Mac OS X 10.6的R 3.0.0中做了这个。我一直试图在tm中使用'PCorpus'('filehash'软件包支持的后端数据库支持)选项,或者更新的'tm用于所谓的“分布式”语料库处理的“.plug