2
我很努力地通过Google Cloud Speech API找到关于实时连续语音识别的示例。我的要求是在用户讲话时使用麦克风并检测语音并进行转录。如何使用Google Cloud Speech API进行实时语音识别?
我知道他们的REST API没有这种支持,所以我研究了grpc的例子,包括他们提供的例子。但它们都似乎是用户可以上传音频并检测语音的示例。
我在Java和谷歌grpc支持Java以及。任何人都会遇到一个很好的例子,说明如何通过Mic持续进行这种识别?
你如何从麦克风获取音频流到服务层? https://github.com/GoogleCloudPlatform/java-docs-samples/tree/master/speech应该可以工作。找到一个proj匹配你的客户端..作为评论,持续的流媒体依赖包括grpc/proto-buffers ....与REST相比,你提到的要重得多...你真的需要连续流媒体吗?如果是的话,可以用build env和用grpc/PBufs拖拽的依赖关系来准备一些额外的时间....要非常小心地改变任何grpc和/或protoBuffer版本,从你在样本中找到的东西,例如链接 –
best sample看到的连续流是一个android proj .... https://github.com/yurifariasg/android-google-speech-sample ..不要意思混淆..选择一个或另一个git proj和不混合他们..国际海事组织u hava决定gRpc客户端的位置......通过本地客户端与麦克风正确......或者,在音频流上的网络IO之后,从您的Java服务层...直到您 –