首先,参考科大讯飞的官方sdk中的案例,实现和机器的日常对话和控制。
具体步骤:
1. 通过麦克风捕获说话的声音,然后通过在线语音识别获取语音中的字符。
2. 将获取到的字符上传到科大讯飞的语义识别中,获得返回回来的信息。(json格式)
3. 将返回的数据通过cjson库进行解析,获取到我们想要的数据。
4. 将获取到的结果上传到科大讯飞的库中,进行语音合成,获取到合成的语音数据。
5. 通过alsa库输出声音。
具体的代码已经上传到github中。
首先,参考科大讯飞的官方sdk中的案例,实现和机器的日常对话和控制。
具体步骤:
1. 通过麦克风捕获说话的声音,然后通过在线语音识别获取语音中的字符。
2. 将获取到的字符上传到科大讯飞的语义识别中,获得返回回来的信息。(json格式)
3. 将返回的数据通过cjson库进行解析,获取到我们想要的数据。
4. 将获取到的结果上传到科大讯飞的库中,进行语音合成,获取到合成的语音数据。
5. 通过alsa库输出声音。
具体的代码已经上传到github中。