• Android Studio快速集成讯飞SDK实现文字朗读功能


    今天,我们来学习一下怎么在Android Studio快速集成讯飞SDK实现文字朗读功能,先看一下效果图:

    第一步 :了解TTS语音服务

      TTS的全称为Text To Speech,即“从文本到语音”。它是同时运用语言学和心理学的杰出之作,在内置芯片的支持之下,通过神经网络的设计,把文字智能地转化为自然语音流。   

      TTS技术对文本文件进行实时转换,转换时间之短可以秒计算。在其特有智能语音控制器作用下,文本输出的语音音律流畅,使得听者在听取信息时感觉自然,毫无机器语音输出的冷漠与生涩感。使用户可以听到清晰悦耳的音质和连贯流畅的语调

      讯飞语言服务分为在线合成和本地合成,其中本地合成需要下载语言包,这和google的TTS一样,但是google的TTS在有的手机中不被支持或者是不支持中文。在这里我们使用的是在线合成的方法,需要有一点点的网速,否则会出现网络缓慢,暂停播放的提示。

    第二步:了解主要对象和方法

    // 语音合成对象
    private SpeechSynthesizer mTts;
    // 语音听写对象
        private SpeechRecognizer mIat;
    //初始化TTS
    mTts = SpeechSynthesizer.createSynthesizer(IatDemo.this, mTtsInitListener);
    //主要方法 text为要读的文本
    mTts.startSpeaking(text, mTtsListener);
    //语音对象参数设置
        // 设置听写引擎
            mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType);
            // 设置返回结果格式
            mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");
    
            String lag = mSharedPreferences.getString("iat_language_preference",
                    "mandarin");
            if (lag.equals("en_us")) {
                // 设置语言
                mIat.setParameter(SpeechConstant.LANGUAGE, "en_us");
            } else {
                // 设置语言
                mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
                // 设置语言区域
                mIat.setParameter(SpeechConstant.ACCENT, lag);
            }
    
            // 设置语音前端点:静音超时时间,即用户多长时间不说话则当做超时处理
            mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000"));
            
            // 设置语音后端点:后端点静音检测时间,即用户停止说话多长时间内即认为不再输入, 自动停止录音
            mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000"));
            
            // 设置标点符号,设置为"0"返回结果无标点,设置为"1"返回结果有标点
            mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1"));
            
            // 设置音频保存路径,保存音频格式支持pcm、wav,设置路径为sd卡请注意WRITE_EXTERNAL_STORAGE权限
            // 注:AUDIO_FORMAT参数语记需要更新版本才能生效
            mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav");
            mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav");
            
            // 设置听写结果是否结果动态修正,为“1”则在听写过程中动态递增地返回结果,否则只在听写结束之后返回最终结果
            // 注:该参数暂时只对在线听写有效
            mIat.setParameter(SpeechConstant.ASR_DWA, mSharedPreferences.getString("iat_dwa_preference", "0"));

    第三步:实现功能

    package com.jerehedu.administrator.mysounddemo;
    
    import android.annotation.SuppressLint;
    import android.app.Activity;
    import android.content.SharedPreferences;
    import android.os.Bundle;
    import android.os.Environment;
    import android.util.Log;
    import android.view.View;
    import android.view.View.OnClickListener;
    import android.view.Window;
    import android.widget.EditText;
    import android.widget.RadioGroup;
    import android.widget.Toast;
    
    import com.iflytek.cloud.ErrorCode;
    import com.iflytek.cloud.InitListener;
    import com.iflytek.cloud.RecognizerListener;
    import com.iflytek.cloud.RecognizerResult;
    import com.iflytek.cloud.SpeechConstant;
    import com.iflytek.cloud.SpeechError;
    import com.iflytek.cloud.SpeechRecognizer;
    import com.iflytek.cloud.SpeechSynthesizer;
    import com.iflytek.cloud.SynthesizerListener;
    import com.iflytek.cloud.ui.RecognizerDialog;
    import com.iflytek.cloud.ui.RecognizerDialogListener;
    import com.iflytek.sunflower.FlowerCollector;
    
    import org.json.JSONException;
    import org.json.JSONObject;
    
    import java.util.HashMap;
    import java.util.LinkedHashMap;
    
    public class IatDemo extends Activity implements OnClickListener {
        private static String TAG = IatDemo.class.getSimpleName();
        // 语音合成对象
        private SpeechSynthesizer mTts;
        // 默认发音人
        private String voicer = "xiaoyan";
        // 缓冲进度
        private int mPercentForBuffering = 0;
        // 播放进度
        private int mPercentForPlaying = 0;
        // 云端/本地单选按钮
        private RadioGroup mRadioGroup;
        // 语音听写对象
        private SpeechRecognizer mIat;
        // 语音听写UI
        private RecognizerDialog mIatDialog;
        // 用HashMap存储听写结果
        private HashMap<String, String> mIatResults = new LinkedHashMap<String, String>();
    
        private EditText mResultText;
        private Toast mToast;
        private SharedPreferences mSharedPreferences;
        // 引擎类型
        private String mEngineType = SpeechConstant.TYPE_CLOUD;
        // 语记安装助手类
        ApkInstaller mInstaller;
        
    
        @SuppressLint("ShowToast")
        public void onCreate(Bundle savedInstanceState) {
            super.onCreate(savedInstanceState);
            requestWindowFeature(Window.FEATURE_NO_TITLE);
            setContentView(R.layout.iatdemo);
    
            initLayout();
            // 初始化识别无UI识别对象
            // 使用SpeechRecognizer对象,可根据回调消息自定义界面;
            mIat = SpeechRecognizer.createRecognizer(IatDemo.this, mInitListener);
            
            // 初始化听写Dialog,如果只使用有UI听写功能,无需创建SpeechRecognizer
            // 使用UI听写功能,请根据sdk文件目录下的notice.txt,放置布局文件和图片资源
            mIatDialog = new RecognizerDialog(IatDemo.this, mInitListener);
    
            mSharedPreferences = getSharedPreferences("com.jredu.setting",
                    Activity.MODE_PRIVATE);
            mToast = Toast.makeText(this, "", Toast.LENGTH_SHORT);
            mResultText = ((EditText) findViewById(R.id.iat_text));
            mInstaller = new ApkInstaller(IatDemo.this);
    
            mTts = SpeechSynthesizer.createSynthesizer(IatDemo.this, mTtsInitListener);
            mSharedPreferences = getSharedPreferences("com.jredu.setting", MODE_PRIVATE);
            mToast = Toast.makeText(this,"",Toast.LENGTH_SHORT);
    
        }
    
        /**
         * 初始化Layout。
         */
        private void initLayout() {
            findViewById(R.id.iat_recognize).setOnClickListener(IatDemo.this);
            findViewById(R.id.read).setOnClickListener(IatDemo.this);
    
            // 选择云端or本地
            mEngineType = SpeechConstant.TYPE_CLOUD;
    
        }
    
        int ret = 0; // 函数调用返回值
    
        @Override
        public void onClick(View view) {
            switch (view.getId()) {
    
            // 开始听写
            // 如何判断一次听写结束:OnResult isLast=true 或者 onError
            case R.id.iat_recognize:
                mResultText.setText(null);// 清空显示内容
                mIatResults.clear();
                // 设置参数
                setParam();
                boolean isShowDialog = mSharedPreferences.getBoolean(
                        getString(R.string.pref_key_iat_show), true);
                if (isShowDialog) {
                    // 显示听写对话框
                    mIatDialog.setListener(mRecognizerDialogListener);
                    mIatDialog.show();
                    showTip(getString(R.string.text_begin));
                } else {
                    // 不显示听写对话框
                    ret = mIat.startListening(mRecognizerListener);
                    if (ret != ErrorCode.SUCCESS) {
                        showTip("听写失败,错误码:" + ret);
                    } else {
                        showTip(getString(R.string.text_begin));
                    }
                }
                break;
                // 开始合成
                // 收到onCompleted 回调时,合成结束、生成合成音频
                // 合成的音频格式:只支持pcm格式
                case R.id.read:
                    String text = ((EditText) findViewById(R.id.tts_text)).getText().toString();
                    Log.d("==",text);
                    // 设置参数
                    setParam();
    
                    int code = mTts.startSpeaking(text, mTtsListener);
                  //  Log.d("======",""+code);
    //            /**
    //             * 只保存音频不进行播放接口,调用此接口请注释startSpeaking接口
    //             * text:要合成的文本,uri:需要保存的音频全路径,listener:回调接口
    //            */
    //            String path = Environment.getExternalStorageDirectory()+"/tts.pcm";
    //            int code = mTts.synthesizeToUri(text, path, mTtsListener);
    
                    if (code != ErrorCode.SUCCESS) {
                        if(code == ErrorCode.ERROR_COMPONENT_NOT_INSTALLED){
                            //未安装则跳转到提示安装页面
                            mInstaller.install();
                        }else {
                            showTip("语音合成失败,错误码: " + code);
                        }
                    }
                    break;
            // 音频流识别
    
            default:
                break;
            }
        }
        /**
         * 初始化监听。
         */
        private InitListener mTtsInitListener = new InitListener() {
            @Override
            public void onInit(int code) {
                Log.d(TAG, "InitListener init() code = " + code);
                if (code != ErrorCode.SUCCESS) {
                    showTip("初始化失败,错误码:"+code);
                } else {
                    // 初始化成功,之后可以调用startSpeaking方法
                    // 注:有的开发者在onCreate方法中创建完合成对象之后马上就调用startSpeaking进行合成,
                    // 正确的做法是将onCreate中的startSpeaking调用移至这里
                }
            }
        };
    
        /**
         * 初始化监听器。
         */
        private InitListener mInitListener = new InitListener() {
    
            @Override
            public void onInit(int code) {
                Log.d(TAG, "SpeechRecognizer init() code = " + code);
                if (code != ErrorCode.SUCCESS) {
                    showTip("初始化失败,错误码:" + code);
                }
            }
        };
        /**
         * 合成回调监听。
         */
        private SynthesizerListener mTtsListener = new SynthesizerListener() {
    
            @Override
            public void onSpeakBegin() {
                showTip("开始播放");
            }
    
            @Override
            public void onSpeakPaused() {
                showTip("暂停播放");
            }
    
            @Override
            public void onSpeakResumed() {
                showTip("继续播放");
            }
    
            @Override
            public void onBufferProgress(int percent, int beginPos, int endPos,
                                         String info) {
                // 合成进度
                mPercentForBuffering = percent;
                showTip(String.format(getString(R.string.tts_toast_format),
                        mPercentForBuffering, mPercentForPlaying));
            }
    
            @Override
            public void onSpeakProgress(int percent, int beginPos, int endPos) {
                // 播放进度
                mPercentForPlaying = percent;
                showTip(String.format(getString(R.string.tts_toast_format),
                        mPercentForBuffering, mPercentForPlaying));
            }
    
            @Override
            public void onCompleted(SpeechError error) {
                if (error == null) {
                    showTip("播放完成");
                } else if (error != null) {
                    showTip(error.getPlainDescription(true));
                }
            }
    
            @Override
            public void onEvent(int eventType, int arg1, int arg2, Bundle obj) {
                // 以下代码用于获取与云端的会话id,当业务出错时将会话id提供给技术支持人员,可用于查询会话日志,定位出错原因
                // 若使用本地能力,会话id为null
                //    if (SpeechEvent.EVENT_SESSION_ID == eventType) {
                //        String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);
                //        Log.d(TAG, "session id =" + sid);
                //    }
            }
        };
    
    
        /**
         * 听写监听器。
         */
        private RecognizerListener mRecognizerListener = new RecognizerListener() {
    
            @Override
            public void onBeginOfSpeech() {
                // 此回调表示:sdk内部录音机已经准备好了,用户可以开始语音输入
                showTip("开始说话");
            }
    
            @Override
            public void onError(SpeechError error) {
                // Tips:
                // 错误码:10118(您没有说话),可能是录音机权限被禁,需要提示用户打开应用的录音权限。
                // 如果使用本地功能(语记)需要提示用户开启语记的录音权限。
                showTip(error.getPlainDescription(true));
            }
    
            @Override
            public void onEndOfSpeech() {
                // 此回调表示:检测到了语音的尾端点,已经进入识别过程,不再接受语音输入
                showTip("结束说话");
            }
    
            @Override
            public void onResult(RecognizerResult results, boolean isLast) {
                Log.d(TAG, results.getResultString());
                printResult(results);
    
                if (isLast) {
                    // TODO 最后的结果
                }
            }
    
            @Override
            public void onVolumeChanged(int volume, byte[] data) {
                showTip("当前正在说话,音量大小:" + volume);
                Log.d(TAG, "返回音频数据:"+data.length);
            }
    
            @Override
            public void onEvent(int eventType, int arg1, int arg2, Bundle obj) {
                // 以下代码用于获取与云端的会话id,当业务出错时将会话id提供给技术支持人员,可用于查询会话日志,定位出错原因
                // 若使用本地能力,会话id为null
                //    if (SpeechEvent.EVENT_SESSION_ID == eventType) {
                //        String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);
                //        Log.d(TAG, "session id =" + sid);
                //    }
            }
        };
    
        private void printResult(RecognizerResult results) {
            String text = JsonParser.parseIatResult(results.getResultString());
    
            String sn = null;
            // 读取json结果中的sn字段
            try {
                JSONObject resultJson = new JSONObject(results.getResultString());
                sn = resultJson.optString("sn");
            } catch (JSONException e) {
                e.printStackTrace();
            }
    
            mIatResults.put(sn, text);
    
            StringBuffer resultBuffer = new StringBuffer();
            for (String key : mIatResults.keySet()) {
                resultBuffer.append(mIatResults.get(key));
            }
    
            mResultText.setText(resultBuffer.toString());
            mResultText.setSelection(mResultText.length());
        }
    
        /**
         * 听写UI监听器
         */
        private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() {
            public void onResult(RecognizerResult results, boolean isLast) {
                printResult(results);
            }
    
            /**
             * 识别回调错误.
             */
            public void onError(SpeechError error) {
                showTip(error.getPlainDescription(true));
            }
    
        };
    
    
    
        private void showTip(final String str) {
            mToast.setText(str);
            mToast.show();
        }
    
        /**
         * 参数设置
         * 
         * @param
         * @return
         */
        public void setParam() {
            // 清空参数
            mIat.setParameter(SpeechConstant.PARAMS, null);
    
            // 设置听写引擎
            mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType);
            // 设置返回结果格式
            mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");
    
            String lag = mSharedPreferences.getString("iat_language_preference",
                    "mandarin");
            if (lag.equals("en_us")) {
                // 设置语言
                mIat.setParameter(SpeechConstant.LANGUAGE, "en_us");
            } else {
                // 设置语言
                mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
                // 设置语言区域
                mIat.setParameter(SpeechConstant.ACCENT, lag);
            }
    
            // 设置语音前端点:静音超时时间,即用户多长时间不说话则当做超时处理
            mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000"));
            
            // 设置语音后端点:后端点静音检测时间,即用户停止说话多长时间内即认为不再输入, 自动停止录音
            mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000"));
            
            // 设置标点符号,设置为"0"返回结果无标点,设置为"1"返回结果有标点
            mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1"));
            
            // 设置音频保存路径,保存音频格式支持pcm、wav,设置路径为sd卡请注意WRITE_EXTERNAL_STORAGE权限
            // 注:AUDIO_FORMAT参数语记需要更新版本才能生效
            mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav");
            mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav");
            
            // 设置听写结果是否结果动态修正,为“1”则在听写过程中动态递增地返回结果,否则只在听写结束之后返回最终结果
            // 注:该参数暂时只对在线听写有效
            mIat.setParameter(SpeechConstant.ASR_DWA, mSharedPreferences.getString("iat_dwa_preference", "0"));
        }
    
        @Override
        protected void onDestroy() {
            super.onDestroy();
            // 退出时释放连接
            mIat.cancel();
            mIat.destroy();
        }
    
        @Override
        protected void onResume() {
            // 开放统计 移动数据统计分析
            FlowerCollector.onResume(IatDemo.this);
            FlowerCollector.onPageStart(TAG);
            super.onResume();
        }
    
        @Override
        protected void onPause() {
            // 开放统计 移动数据统计分析
            FlowerCollector.onPageEnd(TAG);
            FlowerCollector.onPause(IatDemo.this);
            super.onPause();
        }
        
    }
    作者:杰瑞教育
    出处:http://www.cnblogs.com/jerehedu/ 
    版权声明:本文版权归杰瑞教育技有限公司和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
    技术咨询:JRedu技术交流
     
  • 相关阅读:
    Windows Azure 上的 Symfony,适用于 PHP 开发者的强大组合
    VM Depot 镜像新增系列II – 学习管理系统,内容管理系统以及平台管理工具
    VM Depot 镜像新增系列III – 社交媒体,内容管理 与 项目协同系统
    教程:在 VM Depot 中查找 Azure 可用的虚拟机镜像
    使用 Chef 管理 Azure 资源
    微软开放技术发布开源的微软云服务器底盘管理器 (Chasis Manager) 软件
    使用 Gradle 实现 TFS 构建自动化
    携手 Google 和 Docker 为 Microsoft Azure 带来全新的开源容器技术
    VM Depot 中国上的 Bitnami 镜像更新至 Ubuntu 14.04 LTS
    Windows Azure云服务价格调整通知
  • 原文地址:https://www.cnblogs.com/jerehedu/p/5051463.html
Copyright © 2020-2023  润新知