0
我们正在考虑将Stanford NER用于我们域的实体提取。所以我们需要重新训练分类器。但是,我们有Apache Spark环境。我想知道有没有人可以建议如何在Spark上使用斯坦福NER。我正在使用Python 2.7 + NLTK。如何在Apache Spark中使用Stanford NER
任何反应将不胜感激。
我们正在考虑将Stanford NER用于我们域的实体提取。所以我们需要重新训练分类器。但是,我们有Apache Spark环境。我想知道有没有人可以建议如何在Spark上使用斯坦福NER。我正在使用Python 2.7 + NLTK。如何在Apache Spark中使用Stanford NER
任何反应将不胜感激。
Spark的维护者为运行Stanford CoreNLP注释编写了一些代码。
GitHub项目在这里:https://github.com/databricks/spark-corenlp