2011-10-24 79 views
2

我试图让nutch 1.3和solr 3.1一起工作。安装Nutch 1.3和Solr 3.1

注意:我正在使用Windows并安装了Cygwin。

我已经Nutch的安装并做了基本的爬行(从运行时中运行/本地)

斌/ Nutch的抓取网址-dir爬-depth 3

这似乎已经基于工作TEH日志(crawl.log) ... LinkDb:收于2011-10-24十四点22分47秒,经过:00:00:02 爬完成:爬

我已经Solr的安装和检验斯塔LL与本地主机:8983/Solr的/管理员

我复制了Nutch的Schema.xml文件的例子\ Solr的\ conf文件夹

当我运行下面的命令

斌/ Nutch的solrindex http://localhost:8983/solr爬行/ crawldb爬行/ linkdb爬行/分段/ *

我得到以下错误(hadoop.log)

2011-10-24 15:39:26,467 WARN mapred.LocalJobRunner - job_local_0001 
org.apache.solr.common.SolrException: ERROR:unknown field 'content' 

ERROR:unknown field 'content' 
request: http://localhost:8983/solr/update?wt=javabin&version=2 
... 
org.apache.nutch.indexer.IndexerOutputFormat$1.close(IndexerOutputFormat.java:48) 
    at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:474) 
    at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:411) 
    at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:216) 
2011-10-24 15:39:26,676 ERROR solr.SolrIndexer - java.io.IOException: Job failed! 

我错过了什么?

+0

也许你在crawl/linkdb之前错过了-linkdb标志? – nottinhill

回答