1、注册讯飞账号,申请APPID(注意选择IOS平台)
2、加载所需要的类库
3、导入所需要的类库文件头
4、调用申请的APPID以及所需函数,完成语音合成(需要参考官方给出的SDK文件)
详细步骤:
一、首先到科大讯飞官网注册账号(http://open.voicecloud.cn/),并创建应用获取appid,下载sdk文件
二、代码实现api调用
1.先用xcode(我这里使用的是xcode 5.1)新建好一个项目,然后在项目添加要用的类库。其中有一个是讯飞语音的类库iflyMSC,在下载的sdk文件里有,导入就行了。导入的时候要注意把iflyMSC类库拷贝到你的工程目录里,不然后果很严重!
2.导完类库之后,在建好的工程里添加好要用的头文件。
MainViewController.h
1
2
|
#import <UIKit/UIKit.h> #import "iflyMSC/IFlySpeechSynthesizerDelegate.h" |
MainViewController.m
1
2
3
4
5
6
7
|
#import "MainViewController.h" #import <QuartzCore/QuartzCore.h> #import <AVFoundation/AVAudioSession.h> #import <AudioToolbox/AudioSession.h> #import "iflyMSC/IFlySpeechConstant.h" #import "iflyMSC/IFlySpeechUtility.h" #import "iflyMSC/IFlySpeechSynthesizer.h" |
3.完成这些准备工作之后,接下来就是堆代码的工作了。为了方便,笔者只用了两个控件:一个UITextField、一个UIButton,然后给这两个控件分别做一个Outlet和Action连接。
MainViewController.h
1
2
3
4
5
6
7
8
9
10
11
12
13
|
#import <UIKit/UIKit.h> #import "iflyMSC/IFlySpeechSynthesizerDelegate.h" //引入语音合成类 @ class IFlySpeechSynthesizer; @ class IFlyDataUploader; //注意要添加语音合成代理 @interface MainViewController : UIViewController<IFlySpeechSynthesizerDelegate> //声明语音合成的对象 @property (nonatomic, strong) IFlySpeechSynthesizer *iFlySpeechSynthesizer; @property (strong, nonatomic) IBOutlet UITextField *content; - (IBAction)Start:(id)sender; @end |
MainViewController.m
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
|
#import "MainViewController.h" #import <QuartzCore/QuartzCore.h> #import <AVFoundation/AVAudioSession.h> #import <AudioToolbox/AudioSession.h> #import "iflyMSC/IFlySpeechConstant.h" #import "iflyMSC/IFlySpeechUtility.h" #import "iflyMSC/IFlySpeechSynthesizer.h" @interface MainViewController () @end @implementation MainViewController - ( void )viewDidLoad { [super viewDidLoad]; //通过appid连接讯飞语音服务器,把@"53b5560a"换成你申请的appid NSString *initString = [[NSString alloc] initWithFormat:@ "appid=%@,timeout=%@" ,@ "53b5560a" ,@ "20000" ]; //所有服务启动前,需要确保执行createUtility [IFlySpeechUtility createUtility:initString]; //创建合成对象,为单例模式 _iFlySpeechSynthesizer = [IFlySpeechSynthesizer sharedInstance]; _iFlySpeechSynthesizer.delegate = self; //设置语音合成的参数 //合成的语速,取值范围 0~100 [_iFlySpeechSynthesizer setParameter:@ "50" forKey:[IFlySpeechConstant SPEED]]; //合成的音量;取值范围 0~100 [_iFlySpeechSynthesizer setParameter:@ "50" forKey:[IFlySpeechConstant VOLUME]]; //发音人,默认为”xiaoyan”;可以设置的参数列表可参考个性化发音人列表 [_iFlySpeechSynthesizer setParameter:@ "xiaoyan" forKey:[IFlySpeechConstant VOICE_NAME]]; //音频采样率,目前支持的采样率有 16000 和 8000 [_iFlySpeechSynthesizer setParameter:@ "8000" forKey:[IFlySpeechConstant SAMPLE_RATE]]; ////asr_audio_path保存录音文件路径,如不再需要,设置value为nil表示取消,默认目录是documents [_iFlySpeechSynthesizer setParameter: "tts.pcm" forKey:[IFlySpeechConstant TTS_AUDIO_PATH]]; //隐藏键盘,点击空白处 UITapGestureRecognizer *tapGr = [[UITapGestureRecognizer alloc] initWithTarget:self action:@selector(viewTapped:)]; tapGr.cancelsTouchesInView = NO; [self.view addGestureRecognizer:tapGr]; } -( void )viewTapped:(UITapGestureRecognizer*)tapGr { [self.content resignFirstResponder]; } - ( void )didReceiveMemoryWarning { [super didReceiveMemoryWarning]; // Dispose of any resources that can be recreated. } - (IBAction)Start:(id)sender { //启动合成会话 [_iFlySpeechSynthesizer startSpeaking:self.content.text]; } #pragma mark - IFlySpeechSynthesizerDelegate //开始播放 - ( void ) onSpeakBegin { } //缓冲进度 - ( void ) onBufferProgress:( int ) progress message:(NSString *)msg { NSLog(@ "bufferProgress:%d,message:%@" ,progress,msg); } //播放进度 - ( void ) onSpeakProgress:( int ) progress { NSLog(@ "play progress:%d" ,progress); } //暂停播放 - ( void ) onSpeakPaused { } //恢复播放 - ( void ) onSpeakResumed { } //结束回调 - ( void ) onCompleted:(IFlySpeechError *) error { } @end |
4.以上的代理方法其实是可以不写的,但是官方给出的说明是需要加上的。若是在运行过程中出现错误,可以查看开发者文档的错误码列表,找出相应的错误。