Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何将语音识别添加到Unity项目中? [关闭]
Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 我目前正在使用 Vuforia 开发一个增强现实项目 该项目使用语音识别来控制 Unity 中的对象
c
unitygameengine
SpeechRecognition
augmentedreality
Vuforia
通过 C# 中的语音进行 Google 搜索
我正在制作自己的贾维斯程序 当我说 搜索 我想要的东西时 打开谷歌并搜索 某事 这是我的代码 我不会全部粘贴 private void Form1 Load object sender EventArgs e recognizer SetI
c
SpeechRecognition
googlesearch
Python 语音比较
我有两个 wav 文件 我需要比较并确定它们是否包含相同的单词 顺序也相同 一段时间以来我一直在寻找最好的方法 我不知道如何让 pyspeech 使用文件作为输入 我尝试过让 CMU sphinx 项目正常工作 但我似乎无法让 GStrea
python
SpeechRecognition
speechtotext
cmusphinx
onServiceConnected 在bindService 方法之后从未调用
我有一个特殊情况 由广播接收器启动的服务启动一个活动 我想让此活动能够与服务进行通信 我选择使用 AIDL 来使其成为可能 一切似乎都很好 除了bindService 调用的方法onCreate 的活动 实际上 bindService 会抛
Android
Binding
service
SpeechRecognition
iOS 13 设备上语音识别(支持OnDevice Recognition 标志)
我正在尝试让 iOS 13 OnDevice 语音识别正常工作 但是 验证 supportOnDeviceRecognition 标志 这是启用 OnDevice 识别的初步步骤 始终返回 false 我使用的是装有 iOS 13 3 的第
ios
SpeechRecognition
offline
无法通过任何方法通过speech_recognition python获取音频?
我正在尝试做SpeechRecognition 3 8 1 https pypi org project SpeechRecognition 听我的声音四天了 我已经在互联网上看到过以下内容 https github com Uberi s
python
SpeechRecognition
pyaudio
在生产应用程序中使用谷歌凭据的最佳方法是什么?
我正在为 STT 构建 C net 应用程序 并且正在手动创建凭据 我发现文档对我来说非常混乱 我不知道如何正确添加凭据 我添加了一个项目 创建了一个 json 凭证并下载并保存在一个文件夹中 并手动指向它GoogleCredential获
c
googleapi
SpeechRecognition
googlespeechapi
无法启动服务? (语音识别)
我想在服务中使用 pocketsphinx 连续收听 hello 这个词 我得到了错误 这里是完整的堆栈跟踪 https gist github com anonymous d68e9ac7e5d98315a5a4 这是其中的一小部分 Un
Java
Android
SpeechRecognition
voicerecognition
cmusphinx
如何在Python中绘制MFCC?
这是迄今为止我从音频文件 WAV 中提取 MFCC 特征的代码 from python speech features import mfcc import scipy io wavfile as wav rate sig wav read
python
matplotlib
plot
SpeechRecognition
MFCC
在 HTML/JavaScript 扩展中使用 x-webkit-speech
我正在尝试使用新的x webkit speech简单 HTML JavaScript 扩展中的函数谷歌浏览器 http en wikipedia org wiki Google Chrome 然而 我已经尝试并尝试查看一堆示例 但无法让它成
html
googlechromeextension
SpeechRecognition
speech
语音搜索权限
Running 谷歌语音搜索 https play google com store apps details id com google android voicesearch在我的 ICS Android 4 0 4 平板电脑上出现奇怪
Android
SpeechRecognition
androidpermissions
有没有办法将语法与 HTML 5 语音输入 API 结合使用?
我正在使用 HTML 5 语音输入 API 我想让服务器知道它可以期望从语音输入返回哪些答案 有没有办法设置可能的输入列表 在 Google Chrome 中 您还不能使用语法 总的来说 他们决定仅使用自由形式识别 相关问题是Google
html
SpeechRecognition
speech
部分语音识别
我目前在使用 Microsoft 语音引擎进行语音识别方面玩得很开心 它的设置和使用 C 非常简单 并且可以用比我最初想象的更少的代码行来实现伟大的事情 现在 重点是我真的不知道如何处理这个问题 我知道引擎需要开始监听 然后你说一个单词或一
c
SpeechRecognition
使用 MARF 进行说话人识别
我正在使用 MARF 模块化音频识别框架 来识别说话者的声音 在此 我用人 A 的声音训练 MARF 并用人 B 的声音测试 MARF 训练使用 train training samples测试使用 ident testing sample
Java
MATLAB
signalprocessing
SpeechRecognition
matlabdeployment
从头开始简单的语音识别
我发现与我的问题相关的最相似的问题是 简单的语音识别方法 https stackoverflow com questions 8467589 simple speech recognition methods 但是三年过去了 答案还不够 我
SpeechRecognition
featureextraction
hiddenmarkovmodels
如何在 PHP Web 应用程序中实现 Mozilla DeepSpeech 以将语音转换为文本?
我有一个 PHP Web 应用程序 正在寻找一种开源 高精度的语音到文本识别实现 该实现将采用语音命令来打开用户的网页 例子 进行销售 这将打开创建销售 PHP 页面 下达采购订单 打开日终报告 etc 我的问题 我想知道我们是否可以使用M
php
SpeechRecognition
speechtotext
webspeechapi
mozilladeepspeech
将神经网络应用于可变长度语音片段的 MFCC
我目前正在尝试创建和训练一个神经网络 以使用 MFCC 执行简单的语音分类 目前 我为每个样本使用 26 个系数 总共 5 个不同的类别 这些是具有不同音节数的五个不同单词 虽然每个样本都有 2 秒长 但我不确定如何处理用户可以非常慢或非常
MATLAB
neuralnetwork
SpeechRecognition
MFCC
swift 3 结合使用语音识别和 AVFoundation
我成功地能够使用 Speech 语音识别 并且可以使用 AVFoundation 在 Xcode 8 IOS 10 中播放 wav 文件 我只是不能同时使用它们 我有工作语音识别代码 可以在其中导入语音 当我将 AVFoundation 导
ios
swift3
SpeechRecognition
avaudioplayer
HTC One M7 上的语音识别器
我使用 android 的内置语音识别类编写了一个语音识别应用程序 当对使用 createSpeechRecognizer context 函数获取的语音识别器对象调用 startListening 函数时 我的开发人员控制台中会出现以下异
Java
Android
SpeechRecognition
htcandroid
Google 语音识别 API:每个单词的时间戳?
可以使用 Google 的语音识别 API 通过发出请求来获取音频文件 WAV MP3 等 的转录http www google com speech api v2 recognize 示例 我说过 一二三五 在 WAV 文件中 Googl
Audio
SpeechRecognition
speechtotext
speech
googlespeechapi
«
1 ...
3
4
5
6
7
8
9
»