我试图在sklearn中将词干添加到NLP中的管道中。向CountVectorizer添加词干支持(sklearn)
from nltk.stem.snowball import FrenchStemmer
stop = stopwords.words('french')
stemmer = FrenchStemmer()
class StemmedCountVectorizer(CountVectorizer):
def __init__(self, stemmer):
super(StemmedCountVectorizer, self).__init__()
self.stemmer = stemmer
def build_analyzer(self):
analyzer = super(StemmedCountVectorizer, self).build_analyzer()
return lambda doc:(self.stemmer.stem(w) for w in analyzer(doc))
stem_vectorizer = StemmedCountVectorizer(stemmer)
text_clf = Pipeline([('vect', stem_vectorizer), ('tfidf', TfidfTransformer()), ('clf', SVC(kernel='linear', C=1)) ])
在sklearn的CountVectorizer中使用此管道时,它可以工作。如果我手动创建这样的功能,它也可以。
vectorizer = StemmedCountVectorizer(stemmer)
vectorizer.fit_transform(X)
tfidf_transformer = TfidfTransformer()
X_tfidf = tfidf_transformer.fit_transform(X_counts)
编辑:
如果我试图在我的IPython的笔记本电脑这条管道也显示[*]并没有任何反应。当我看着我的终端,它给这个错误:
Process PoolWorker-12:
Traceback (most recent call last):
File "C:\Anaconda2\lib\multiprocessing\process.py", line 258, in _bootstrap
self.run()
File "C:\Anaconda2\lib\multiprocessing\process.py", line 114, in run
self._target(*self._args, **self._kwargs)
File "C:\Anaconda2\lib\multiprocessing\pool.py", line 102, in worker
task = get()
File "C:\Anaconda2\lib\site-packages\sklearn\externals\joblib\pool.py", line 360, in get
return recv()
AttributeError: 'module' object has no attribute 'StemmedCountVectorizer'
例
下面是完整的例子
from sklearn.pipeline import Pipeline
from sklearn import grid_search
from sklearn.svm import SVC
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer
from nltk.stem.snowball import FrenchStemmer
stemmer = FrenchStemmer()
analyzer = CountVectorizer().build_analyzer()
def stemming(doc):
return (stemmer.stem(w) for w in analyzer(doc))
X = ['le chat est beau', 'le ciel est nuageux', 'les gens sont gentils', 'Paris est magique', 'Marseille est tragique', 'JCVD est fou']
Y = [1,0,1,1,0,0]
text_clf = Pipeline([('vect', CountVectorizer()), ('tfidf', TfidfTransformer()), ('clf', SVC())])
parameters = { 'vect__analyzer': ['word', stemming]}
gs_clf = grid_search.GridSearchCV(text_clf, parameters, n_jobs=-1)
gs_clf.fit(X, Y)
如果您从这些参数所产生它的工作原理,否则它不起作用。
UPDATE:
这个问题似乎是因为去除n_jobs = -1问题消失时是在平行化处理。
这似乎是一个问题用酸洗和取消范围。例如,如果将'stemming'放入导入的模块中,则它会更可靠地取出。 – joeln
您能否提供一个示例或链接以了解您所说的内容?如何在输入模块中添加“stemming”?因为没有并行化,GridSearch很慢,需要调整一些参数。 – dooms
对于它的价值,我可以毫无问题地运行您的完整示例。但我的意思是将'stemming'的代码移动到'myutils.py'中,并使用'from myutils import stemming'。 – joeln