最近折腾了swift的语音录制识别和转码,这块还是比较坑的,由于语音识别的准确度实测大概也就80%左右,所以还是需要上传录音文件啊。
首先是用讯飞语音SDK实现语音录制和识别(语音听写),第一个坑是讯飞SDK只录制了PCM格式的文件,这个文件是原始格式,默认比较大,另外播放器支持也不好,因此需要先把它转成mp3,本来考虑使用系统的AudioConverter转aac格式,不过aac好像不能在浏览器上播放。
转成mp3需要lame库支持,注意国内网搜到的lame.a库不支持64位,所以现在不能用了。
还好已经有人做了这个事情,直接提供了最新编译脚本和编译好的framework库,地址是https://github.com/wuqiong/mp3lame-for-iOS
我直接用了上面编译的framework,没有自己去编译,直接把lame.framework拖到工程里。
然后需要用oc写个封装类,我不确定这个封装类能不能用swift写,毕竟里面用了很多c的语法,还是用oc桥接一层比较保险。oc封装类如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
| #import "AudioWrapper.h" #import "lame/lame.h"
@implementation
+ (void)audioPCMtoMP3 :(NSString *)audioFileSavePath :(NSString *)mp3FilePath { @try { int read, write; FILE *pcm = fopen([audioFileSavePath cStringUsingEncoding:1], "rb"); fseek(pcm, 4*1024, SEEK_CUR); 大专栏 Swift iOS实现把PCM语音转成MP3格式pan class="comment">//skip file header FILE *mp3 = fopen([mp3FilePath cStringUsingEncoding:1], "wb"); const int PCM_SIZE = 8192; const int MP3_SIZE = 8192; short int pcm_buffer[PCM_SIZE*2]; unsigned char mp3_buffer[MP3_SIZE]; lame_t lame = lame_init(); lame_set_in_samplerate(lame, 11025.0); lame_set_VBR(lame, vbr_default); lame_init_params(lame); do { read = fread(pcm_buffer, 2*sizeof(short int), PCM_SIZE, pcm); if (read == 0) write = lame_encode_flush(lame, mp3_buffer, MP3_SIZE); else write = lame_encode_buffer_interleaved(lame, pcm_buffer, read, mp3_buffer, MP3_SIZE); fwrite(mp3_buffer, write, 1, mp3); } while (read != 0); lame_close(lame); fclose(mp3); fclose(pcm); } @catch (NSException *exception) { NSLog(@"%@",[exception description]); } @finally { NSLog(@"MP3 converted: %@",mp3FilePath); } } @end
|
然后在桥接文件XXX-Bridging-Header.h中加入
#import “AudioWrapper.h”
最后 swift文件的调用如下:
1 2 3
| dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0)) { AudioWrapper.audioPCMtoMP3(path, pathMp3) }
|
我觉得在主线程调用容易出问题,就新开了个线程调用,实测没有问题。