2010-08-16 66 views
1

伙计们, 我想放在一起,我使用微软的SAPI到服务器端系统:SAPI:服务器端听写

  • 在服务器中执行多个同步听写风格的认可。
  • 此外,所有认可可以使用不同的扬声器配置文件(我的应用程序将识别用户并向SAPI指示要加载的配置文件)。
  • 我也想通过编程来训练各种用户配置文件。

我已经知道以上的一些不可能从托管代码,即System.speech命名空间。任何人都可以启发我,我是否试图在理论上使用SAPI 5.x做些什么?

感谢您的帮助。

-Raj

+0

你最终找到解决方案吗?如果你愿意,你应该将它作为答案发布。 – Houseman 2014-12-17 16:22:11

+0

我以这种方式结束了使用SAPI的自解决方案。查看http://www.nvoq.com/ – Raj 2014-12-29 18:42:16

回答

0

您需要Microsoft Speech Server做到这一点。您仍然可以使用托管代码,但您需要使用Microsoft.Speech.Recognition库(使用Server引擎)而不是System.Speech.Recognition(使用桌面引擎)。

除此之外,当然,您想要的任何东西都可以在本地SAPI中完成。

+0

Eric,谢谢你的回应。 Microsoft.Speech.Recognition库不允许听写语法。在进行我的研究时,我发现目前基于微软的基于服务器的语音产品不会听写,也不会暴露这种能力。此外,语音API的托管代码变体仅限于最常见的用例:编写语音感知用户交互式应用程序(如在非服务器中)。看起来像本土SAPI是我需要的方式。 – Raj 2010-08-18 17:31:51

+0

你仍然需要服务器引擎来做你想做的事。桌面引擎不适用于电话质量的音频。 – 2010-08-19 16:25:24

+0

是的。我正在考虑通过基于网络(flash/silverlight)的UI或移动应用将音频流式传输到基于SAPI的服务器。 – Raj 2010-08-20 01:31:32