我们在开发实践中常常会涉及到网络语音视频技术。诸如即时通讯、视频会议、远程医疗、远程教育、网络监控等等,这些网络多媒体应用系统都离不开网络语音视频技术。本人才疏学浅,对于网络语音视频技术也仅仅是略知皮毛,这里只想将自己了解到的一些最基础的知识分享给大家,管中窥豹,略见一斑,更重要的是抛砖引玉,希望更多的朋友们一起来探讨,同时,有讲得不正确的地方也希望大家批评指正。
一.基本流程
无论是即时通讯、视频会议,还是远程医疗、远程教育、网络监控等等系统,都需要获取到远程的语音、视频信息,在我们的直观印象中好像我们就是直接的访问到了对方的摄像头,麦克风、显示器、声卡等等设备,但是事实上这些语音视频信息要经过如下的基本流程才能呈现在我们的面前。
就拿我最近正在研究的 OMCS 语音视频框架来说,其提供了摄像头连接器、麦克风连接器、桌面连接器、电子白板连接器等API,能让我们就像访问本地设备一样访问远程设备,但是它其实是把艰难困苦留给了自己,简单清晰的API才能让我们带走。其实说白了,OMCS 所做的主要工作就是实现了多媒体设备【麦克风、摄像头、桌面、电子白板】的采集、编码、网络传送、解码、播放(或显示)等相关的一整套流程。附:语音视频示例Demo下载 与 详细说明
虽然 OMCS 使用起来如此方便,但是我们仍然有必要了解其背后的相关原理,尤其是这些最基本的原理。
二.基本环节
1.采集
采集是第一个环节。所谓“巧妇难为无米之炊”,首先我们要从多媒体设备上拿到第一手材料。对于音频而言,就是要从麦克风、声卡等设备获取到音频信号;对于视频而言,就是要从显示器、摄像头等设备获取到图像信息。如何获取到这些信息呢?于是我们需要采集。
所谓采集又可以拆分成采样和集聚两个步骤来理解。这就好比“曹聪称象”,先将大的总体分解成一个个样本,再将分解得到的样本整合起来,其思想无非就是用样本来模拟总体。
(1)对于视频而言,采集的过程就如同下图所示
我们知道,视频总是连续的,但是我们可以将其分解为一张张的图片,即图片帧,到时候我们再将得到的这些图片按照相应的时序来播放就可以基本还原成原来的视频了。
在这里,有几个重要的量是我们需要关注的。
a.分辨率
首先我们要关注每一个样本的大小,因为样本的大小意味着其所包含的数据量的多少,而一个数据量大的样本比一个数据量小的样本更能够反映总体。就拿图中的例子来说,我们对一只鸽子的起飞过程进行连续的拍照,但是我们用高像素来拍和用低像素来拍,到时候连续翻看的时候,效果肯定是不一样的。因为每个图像帧的数据量的大小将影响到所得视频的清晰度。而这个图像帧的大小是用一个什么量来表示的呢?这个量就是分辨率。图像的分辨率越高,所包含的像素点就越多,所包含的数据量就越大,就越能够反映原始图像的本来面貌。
b.帧频
其次,原始的视频是连续的,我们采集得到的图像都是离散的。那么这个离散的程度肯定也会影响到所得视频的效果。如果图片的离散程度过大,那么所得视频看起来就会显得一卡一卡,而如果离散的程度足够小,那么所得视频就会显得流畅自然。所以样本之间的离散程度,影响到的是视频的流畅性。而这个离散程度是用什么量来表示的呢?这个量就是帧频。帧频对于采集而言就是每秒采集到多少帧图像,自然,帧频越大,画面就越流畅。
(2)对于音频而言,采集的过程也可以用类似地用下图来说明
类似于视频的采集,音频的采集也需要将连续的总体分解成离散的样本,然后再“曹聪称象”,组装成整体。
同样,音频采集中也有几个重要的量需要我们关注。
a.采样深度
类似于视频采集,我们需要关注每一个样本的数据量的大小。对于音频采集而言,样本的数据量的大小由什么来表示呢?我们用采样深度来表示,所谓采样深度又可称为采样位数,即每次采样声音数据的比特数。同样,采样深度的大小也会影响到所得音频的清晰度。如果采样位数过低,所得到的音频听起来就会含混不清。
b.采样率
类似于视频采集,我们也需要关注样本之间的离散程度。对于音频采集而言,这个离散程度我们用采样率来表示,即每秒钟采集的样本的个数。采样频率的大小会影响到所得音频的流畅程度。如果采样频率过低,则声音听起来就会有卡顿。
总结:
无论是视频采集还是音频采集,说到底都是样本采集,而我们采集的目的,无非就是想用样本来模拟总体,至于这个模拟效果的好坏由两个因素来决定,一是每个样本的数据量的大小,二是样本之间的密集程度。即,样本数据量越大,样本之间的密度越大,就越能够代表总体,就越能够反映出总体的本来面貌。所以,我们可以给出这样一个总公式——
样本反映总体的效果 = 单个样本数据量的大小 X 样本之间的密集程度
然后,对于视频采集和音频采集而言,可以给出如下两个子公式——
1.所得视频的效果 = 分辨率 X 帧频
2.所得音频的效果 = 采样深度 X 采样率
2.编码
对于采集得到的原始语音视频数据,直接放到网络上传输,数据量会非常大,会占用到非常大的带宽。所以需要对原始数据进行编码和压缩。 所以,在实际的语音通话应用中,编码这个环节是不可缺少的。目前有很多常用的语音编码技术,像G.729、iLBC、AAC、SPEEX等等。
同时我们也应该注意到,编码压缩的过程中不可避免的要丢失一些信息,而这也将影响到所得语音视频的效果。
所以我们再定义一个量:压缩率,表示原始数据的压缩程度,压缩程度越高,意味着丢失的数据越多,因此由压缩数据还原得到的语音视频,距离原始语音视频的本色越远,失真越大。
所以我们将这个因素补充到刚才的出的公式中。
1.所得视频的效果 = 分辨率 X 帧频 / 压缩率
2.所得音频的效果 = 采样深度 X 采样率 / 压缩率
3.传输
数据传输,这个是计算机网络的基础知识,想必大家都很熟悉,我就不再赘述了。但是有一点需要注意的就是,在诸如即时通讯、视频会议、远程医疗、远程教育等对实时性要求很高的网络多媒体应用系统中,网络的低延迟和高平稳是保证通讯的实时性的重要条件。
4.解码
当接收方接收到经过编码的数据后,会对其进行解码,以恢复成为可供直接播放的语音视频数据。
5.播放
完成解码后,即可将得到的语音视频帧提交给相关设备进行播放。
三.更多技术
然而,实际中的网络语音视频技术的实现远非基本流程中所介绍的那样简单,其涉及到相当多的技术细节需要处理,甚至涉及到相当多颇有难度的技术问题需要克服。由于这些技术不是本文所介绍的重点,更不是本人所能够驾驭的范畴,所以仅罗列如下,供大家参考。
1.回音消除 AEC
2.噪声抑制 DENOISE
3.抖动缓冲区 JitterBuffer
4.静音检测 VAD
5.混音算法
想要对这些技术了解更多的朋友请参见知名博主 zhuweisky 的博客《浅谈网络语音技术》
在此我要感谢zhuweisky,感谢他对我在网络语音视频技术方面的指点,即便是本文,也是我对其本人的博文中的相关内容的一个阐释与发挥。
正如钱钟书先生所言:当我们吃到一个很好吃的鸡蛋时,总是忍不住想要认识一下生下那个蛋的母鸡。
最后,也希望zhuweisky以后能与我们分享更多的技术与心得。