下一秒我就是野生字幕君
最近剧荒,偶然翻出了曾经下载的电视剧回味一番,经典就是经典,不论是剧情还是台词,都那么有魅力,咦?等等,台词,台词……作为一个IT从业者,我忽然灵光一现——现在语音识别技术这么发达,能否有什么办法能帮我保存下一些精彩桥段的台词呢?或许我也可以是个野生字幕君:p ,似乎也可以在此基础上顺手再翻译一下个别难懂的台词!
略加思索,我大概有了个想法——做个视频中提取音频的程序,而后去请求一个开放的语音识别API来帮我把语音转为文字。鉴于之前调用有道智云的愉快经验,我决定再次拿来为我所用,很快做出了这个demo(请忽略这丑丑的界面布局,能用就行……)。
调用API接口的准备工作
首先,是需要在有道智云的个人页面上创建实例、创建应用、绑定应用和实例,获取调用接口用到的应用的id和密钥。具体个人注册的过程和应用创建过程详见文章分享一次批量文件翻译的开发过程
开发过程详细介绍
下面介绍具体的代码开发过程。
首先分析有道智云的API输入输出规范。根据文档来看,调用接口格式如下:
有道语音识别API HTTPS地址:
https://openapi.youdao.com/asrapi
接口调用参数:
字段名 | 类型 | 含义 | 必填 | 备注 |
---|---|---|---|---|
q | text | 要翻译的音频文件的Base64编码字符串 | True | 必须是Base64编码 |
langType | text | 源语言 | True | 支持语言 |
appKey | text | 应用 ID | True | 可在 应用管理 查看 |
salt | text | UUID | True | UUID |
curtime | text | 时间戳(秒) | true | 秒数 |
sign | text | 签名,通过md5(应用ID+q+salt+curTime+密钥)生成 | True | 应用ID+q+salt+curTime+密钥的MD5值 |
signType | text | 签名版本 | True | v2 |
format | text | 语音文件的格式,wav | true | wav |
rate | text | 采样率, 推荐 16000 采用率 | true | 16000 |
channel | text | 声道数, 仅支持单声道,请填写固定值1 | true | 1 |
type | text | 上传类型, 仅支持base64上传,请填写固定值1 | true | 1 |
其中q为base64编码的待识别音频文件,“上传的文件时长不能超过120s,文件大小不能超过10M”,这点需要注意一下。
API的返回内容较为简单:
字段 | 含义 |
---|---|
errorCode | 识别结果错误码,一定存在。 详细信息参加 错误代码列表 |
result | 识别结果,识别成功一定存在 |
Demo开发:
这个demo使用python3开发,包括maindow.py,videoprocess.py,srbynetease.py三个文件。界面部分,使用python自带的tkinter库,提供视频文件选择、时间输入框和确认按钮;videoprocess.py来实现在视频的指定时间区间提取音频和处理API返回信息的功能;srbynetease.py将处理好的音频发送到短语音识别API并返回结果。
-
界面部分:
界面部分代码如下,比较简单。
root=tk.Tk() root.title("netease youdao sr test") frm = tk.Frame(root) frm.grid(padx='50', pady='50') btn_get_file = tk.Button(frm, text='选择待识别视频', command=get_file) btn_get_file.grid(row=0, column=0, padx='10', pady='20') path_text = tk.Entry(frm, width='40') path_text.grid(row=0, column=1) start_label=tk.Label(frm,text='开始时刻:') start_label.grid(row=1,column=0) start_input=tk.Entry(frm) start_input.grid(row=1,column=1) end_label=tk.Label(frm,text='结束时刻:') end_label.grid(row=2,column=0) end_input=tk.Entry(frm) end_input.grid(row=2,column=1) sure_btn=tk.Button(frm, text='开始识别', command=start_sr) sure_btn.grid(row=3,column=0,columnspan=3) root.mainloop()
其中sure_btn的绑定事件start_sr()做了简单的异常处理,并通过弹窗打印最终的识别结果:
def start_sr():
print(video.video_full_path)
if len(path_text.get())==0:
sr_result = '未选择文件'
else:
video.start_time = int(start_input.get())
video.end_time = int(end_input.get())
sr_result=video.do_sr()
tk.messagebox.showinfo("识别结果", sr_result)
2. 在videoprocess.py中,我用到了python的moviepy库来处理视频,按指定起止时间截取视频,提取音频,并按API要求转为base64编码形式:
```python
def get_audio_base64(self):
video_clip=VideoFileClip(self.video_full_path).subclip(self.start_time,self.end_time)
audio=video_clip.audio
result_path=self.video_full_path.split('.')[0]+'_clip.mp3'
audio.write_audiofile(result_path)
audio_base64 = base64.b64encode(open(result_path,'rb').read()).decode('utf-8')
return audio_base64
处理好的音频文件编码传到封装好的有道智云API调用方法中:
def do_sr(self):
audio_base64=self.get_audio_base64()
sr_result=srbynetease.connect(audio_base64)
print(sr_result)
if sr_result['errorCode']=='0':
return sr_result['result']
else:
return "Something wrong , errorCode:"+sr_result['errorCode']
-
srbynetease.py中封装的调用方法比较简单,按API文档“组装”好data{}发送即可:
def connect(audio_base64): data = {} curtime = str(int(time.time())) data['curtime'] = curtime salt = str(uuid.uuid1()) signStr = APP_KEY + truncate(audio_base64) + salt + curtime + APP_SECRET sign = encrypt(signStr) data['appKey'] = APP_KEY data['q'] = audio_base64 data['salt'] = salt data['sign'] = sign data['signType'] = "v2" data['langType'] = 'zh-CHS' data['rate'] = 16000 data['format'] = 'mp3' data['channel'] = 1 data['type'] = 1 response = do_request(data) return json.loads(str(response.content,'utf-8'))
效果展示
随手打开《甄嬛传》第一集的某一小段试试:
效果可以,断句的一点小瑕疵可以忽略。没想到这短语音识别API博古通今,古文语音识别也这么溜,厉害厉害!
总结
一番尝试带我打开了新世界的大门,从今天开始我可以是一个不打字却能搬运字幕的野生字幕君了,后面再有时间可以试试识别完翻译成其他语言的操作,嗯,是技术的力量!
项目地址:https://github.com/LemonQH/SRFromVideo