2

我很努力地通过Google Cloud Speech API找到关于实时连续语音识别的示例。我的要求是在用户讲话时使用麦克风并检测语音并进行转录。如何使用Google Cloud Speech API进行实时语音识别?

我知道他们的REST API没有这种支持,所以我研究了grpc的例子,包括他们提供的例子。但它们都似乎是用户可以上传音频并检测语音的示例。

我在Java和谷歌grpc支持Java以及。任何人都会遇到一个很好的例子,说明如何通过Mic持续进行这种识别?

+0

你如何从麦克风获取音频流到服务层? https://github.com/GoogleCloudPlatform/java-docs-samples/tree/master/speech应该可以工作。找到一个proj匹配你的客户端..作为评论,持续的流媒体依赖包括grpc/proto-buffers ....与REST相比,你提到的要重得多...你真的需要连续流媒体吗?如果是的话,可以用build env和用grpc/PBufs拖拽的依赖关系来准备一些额外的时间....要非常小心地改变任何grpc和/或protoBuffer版本,从你在样本中找到的东西,例如链接 –

+0

best sample看到的连续流是一个android proj .... https://github.com/yurifariasg/android-google-speech-sample ..不要意思混淆..选择一个或另一个git proj和不混合他们..国际海事组织u hava决定gRpc客户端的位置......通过本地客户端与麦克风正确......或者,在音频流上的网络IO之后,从您的Java服务层...直到您 –

回答

0

存在对从麦克风接收到的音频流,即“执行流式语音识别”文档page,“在音频流上执行流式语音识别”子章节上执行流式语音识别的示例。 C++标签应该提供一个与Java最相似的代码示例。