2016-07-01 60 views
0

我以创建Azure ML web服务为例,在部署Web服务时遇到未知错误。错误没有解释,所以很难追踪。Azure机器学习Web服务输入数据问题

在演播室内运行实验时,实验运行时没有任何问题。但是,当部署到webservice时,测试功能失败,输入与录音棚中相同。

我也发布了一个服务的样本,以查看是否有人可以看到问题是什么。

https://gallery.cortanaintelligence.com/Experiment/mywebservice-1

关于服务的一些信息:

的服务需要输入作为表示为svmlight格式的稀疏特征向量的字符串。它将返回输入特征向量的预测类。从部署的服务运行测试功能时,错误失败,而演播室中的实验正在运行,没有任何问题。

希望任何人有一个想法是如何出错的。

回答

0

使用测试对话框意味着您使用的是实时API的请求响应服务。这有http超时作为完成请求的最大时间。由于特征向量太长,请求会超时。可否请您尝试使用批处理执行服务下面

https://azure.microsoft.com/en-us/documentation/articles/machine-learning-consume-web-services/#batch-execution-service-bes

+0

所描述的只是想专注于此刻的请求 - 响应服务。 我已经在Python Notebook上用相同的输入测试了Python模型,它在微秒内运行得很快。 I –

+0

这里有两个问题,我不确定这是来自天蓝色吗? 1.我在桌面Python Notebook中运行python模型,运行速度很快,但在Azure ML Studio中运行时,该模块需要几分钟的时间, 2. webservice的输入数据是svmlight格式的字符串,到它的稀疏,字符串的长度可能非常小。我只测试了一个功能,问题仍然存在。如果这是输入数据的问题,为什么它在演播室内运行。 –

+0

{ “类型”: “InvokeModuleEndEvent”, “MODULENAME”: “执行Python脚本RRS”, “错误”: “执行遇到一个内部错误。”}, { “类型”: “RequestSummary”, “状态“:”失败“, ”错误“:”该模型已超出分配给它的内存配额。“} –