是否可以使用示例数据来训练Google Speech API以帮助识别我的应用程序?Google Speech API的正确识别结果
我的意思是像由wit.ai提供的所述一个的方法和所描述here(即使示例适用于NLP处理)。基本上,如果你可以预测你的用户与你的机器人之间的交互,你可以训练它来更好地执行。例如,我知道将使用的城市的子集,例如:当我说Zurich
,它变成Syria
或Siberia
似乎我不能让机器人理解我,但我已经知道这是不可能的。因此,如果我假设我可以上传首选使用的首选词汇列表,并且如果找不到符合标准识别或类似方法的匹配项,我认为它会获得更好的结果。
任何想法,如果它是可能的和如何?我知道这些API处于测试阶段,可能会发生变化,但我仍然想尝试一下。
我可以上传我目前做的一些示例代码,但它只是发送音频,到目前为止分析的结果,所以没有真正接近这个问题。
不dispare,它是一个辅助项目和ATM我没有时间进行这项工作,但只要我回到这个我会让你知道,如果你的答案可以帮助我(我发现信心已经,但可能忽略了多种选择,我的印象是只有一个不太确定) – ThanksForAllTheFish