|
哪些麦克风阵列技术
: d# b2 F6 u4 o0 `3 A) l% x
9 f) T+ P! o X$ N% h 亚马逊Echo和谷歌Home争奇斗艳,除了云端服务,他们在硬件上到底有哪些差异?我们先将Echo和Home两款音箱拆开来看,区别*的还是麦克风阵列技术。Amazon Echo采用的是环形6+1麦克风阵列,而Google Home(包括Surface Studio)只采用了2麦克风阵列。这种差异我们在文章《对比Amazon Echo,Google Home为何只采用了2个麦克风?》做了探讨。但是好多朋友私信咨询,因此这里想稍微深入谈谈麦克风阵列技术,以及智能语音交互设备到底应该选用怎样的方案。% S+ q( ~; g$ `; \9 R
2 `8 P6 F+ G: O4 x! N% c' x
什么是麦克风阵列技术?
/ z, T! ?8 B; a& W X8 y8 k! F7 e
" h* ^" b6 [) W3 T6 f2 M 学术上有个概念是“传声器阵列”,主要由一定数目的声学传感器组成,用来对声场的空间特性进行采样并处理的系统。而这篇文章讲到的麦克风阵列是其中一个狭义概念,特指应用于语音处理的按一定规则排列的多个麦克风系统,也可以简单理解为2个以上麦克风组成的录音系统。
$ v+ D$ ?- B8 `
6 }8 s- ?% q5 D- j) T9 z7 L 麦克风阵列一般来说有线形、环形和球形之分,严谨的应该说成一字、十字、平面、螺旋、球形及无规则阵列等。至于麦克风阵列的阵元数量,也*是麦克风数量,可以从2个到上千个不等。这样说来,麦克风阵列真的好复杂,别担心,复杂的麦克风阵列主要应用于工业和国防领域,消费领域考虑到成本会简化很多。 ^9 G$ \% P- E% s# \' N- A
) A6 g v# t+ [- t! ?/ H! Q 麦克风阵列是什么
2 u; R6 H0 b5 B, G
1 |9 L$ g2 f D' p2 e! l7 m: `2 [ 为什么需要麦克风阵列?5 F, F. \ p4 |4 K# b8 [0 F3 }
K0 P! c! T) {$ l6 [; g
消费级麦克风阵列的兴起得益于语音交互的市场火热,主要解决远距离语音识别的问题,以保证真实场景下的语音识别率。这涉及了语音交互用户场景的变化,当用户从手机切换到类似Echo智能音箱或者机器人的时候,实际上麦克风面临的环境*完全变了,这*如同两个人窃窃私语和大声嘶喊的区别。
7 d+ I! S5 [# V5 U
" K4 Q, T5 m5 Z' C/ { u( f 前几年,语音交互应用*为普遍的*是以Siri为代表的智能手机,这个场景一般都是采用单麦克风系统。单麦克风系统可以在低噪声、无混响、距离声源很近的情况下获得符合语音识别需求的声音信号。但是,若声源距离麦克风距离较远,并且真实环境存在大量的噪声、多径反射和混响,导致拾取信号的质量下降,这会严重影响语音识别率。而且,单麦克风接收的信号,是由多个声源和环境噪声叠加的,很难实现各个声源的分离。这样*无法实现声源定位和分离,这很重要,因为还有一类声音的叠加并非噪声,但是在语音识别中也要抑制,*是人声的干扰,语音识别显然不能同时识别两个以上的声音。# V; B/ e7 ], [0 _7 M: ]; o
2 a4 \; Q! o- u, p/ O
显然,当语音交互的场景过渡到以Echo、机器人或者汽车为主要场景的时候,单麦克风的局限*凸显出来。为了解决单麦克风的这些局限性,利用麦克风阵列进行语音处理的方法应时而生。麦克风阵列由一组按一定几何结构(常用线形、环形)摆放的麦克风组成,对采集的不同空间方向的声音信号进行空时处理,实现噪声抑制、混响去除、人声干扰抑制、声源测向、声源跟踪、阵列增益等功能,进而提高语音信号处理质量,以提高真实环境下的语音识别率。9 c5 Z9 b a* M8 a
+ |: G. c- p, ]( r- f: G" o 事实上,仅靠麦克风阵列也很难保证语音识别率的指标。麦克风阵列还仅是物理入口,只是完成了物理世界的声音信号处理,得到了语音识别想要的声音,但是语音识别率却是在云端测试得到的结果,因此这两个系统必须匹配在一起才能得到*好的效果。不仅如此,麦克风阵列处理信号的质量还无法定义标准。因为当前的语音识别基本都是深度学习训练的结果,而深度学习有个局限*是严重依赖于输入训练的样本库,若处理后的声音与样本库不匹配则识别效果也不会太好。从这个角度应该非常容易理解,物理世界的信号处理也并非越是纯净越好,而是越接近于训练样本库的特征越好,即便这个样本库的训练信号很差。显然,这是一个非常难于实现的过程,至少要声学处理和深度学习的两个团队配合才能做好这个事情,另外声学信号处理这个层次输出的信号特征对语义理解也非常重要。看来,小小的麦克风阵列还真的不是那么简单,为了更好地显示这种差别,我们测试了某语音识别引擎在单麦克风和四麦克风环形阵列的识别率对比。另外也要提醒,语音识别率并非只有一个WER指标,还有个重要的虚警率指标,稍微有点声音*乱识别也不行,另外还要考虑阈值的影响,这都是麦克风阵列技术中的陷阱。
7 D3 z R$ `5 O2 D8 ]% H6 i+ e( w
为什么需要麦克风阵列?5 \, r$ U* Z7 Y% A' p
$ d1 o) h9 ~ ~* T$ D" y: K
麦克风阵列的关键技术
0 |& }0 m; w# L5 t% T, C
2 @$ z; \$ M! b# {1 I/ N 消费级的麦克风阵列主要面临环境噪声、房间混响、人声叠加、模型噪声、阵列结构等问题,若使用到语音识别场景,还要考虑针对语音识别的优化和匹配等问题。为了解决上述问题,特别是在消费领域的垂直场景应用环境中,关键技术*显得尤为重要。
4 N9 }1 o: k! f; q9 v2 X2 ~. K3 G! n
噪声抑制:语音识别倒不需要完全去除噪声,相对来说通话系统中需要的技术则是噪声去除。这里说的噪声一般指环境噪声,比如空调噪声,这类噪声通常不具有空间指向性,能量也不是特别大,不会掩盖正常的语音,只是影响了语音的清晰度和可懂度。这种方法不适合强噪声环境下的处理,但是应付日常场景的语音交互足够了。/ R3 v, N6 y* l# h5 [% e
; Q. ~' R# u; c5 l# q& o$ V7 B T) S 混响消除:混响在语音识别中是个蛮讨厌的因素,混响去除的效果很大程度影响了语音识别的效果。我们知道,当声源停止发声后,声波在房间内要经过多次反射和吸收,似乎若干个声波混合持续一段时间,这种现象叫做混响。混响会严重影响语音信号处理,比如互相关函数或者波束主瓣,降低测向精度。
' |$ G7 s' U. y/ r& B+ k% _" R, L0 L& c
麦克风阵列的关键技术
3 y' H( S( _, f. Y7 V6 T0 f; ^8 `" f6 V7 A& q6 @
回声抵消:严格来说,这里不应该叫回声,应该叫“自噪声”。回声是混响的延伸概念,这两者的区别*是回声的时延更长。一般来说,超过100毫秒时延的混响,人类能够明显区分出,似乎一个声音同时出现了两次,我们*叫做回声,比如天坛*的回声壁。实际上,这里所指的是语音交互设备自己发出的声音,比如Echo音箱,当播放歌曲的时候若叫Alexa,这时候麦克风阵列实际上采集了正在播放的音乐和用户所叫的Alexa声音,显然语音识别无法识别这两类声音。回声抵消*是要去掉其中的音乐信息而只保留用户的人声,之所以叫回声抵消,只是延续大家的习惯而已,其实是不恰当的。' b/ \0 z$ H. D4 ~* I* Q+ S% e
* w& ?% b5 \. L) v# L* y 声源测向:这里没有用声源定位,测向和定位是不太一样的,而消费级麦克风阵列做到测向*可以了,没必要在这方面投入太多成本。声源测向的主要作用*是侦测到与之对话人类的声音以便后续的波束形成。声源测向可以基于能量方法,也可以基于谱估计,阵列也常用TDOA技术。声源测向一般在语音唤醒阶段实现,VAD技术其实*可以包含到这个范畴,也是未来功耗降低的关键研究内容。
5 ?. r: f' f6 {; M+ T4 G$ h" |" g0 u* t" n
波束形成:波束形成是通用的信号处理方法,这里是指将一定几何结构排列的麦克风阵列的各麦克风输出信号经过处理(例如加权、时延、求和等)形成空间指向性的方法。波束形成主要是抑制主瓣以外的声音干扰,这里也包括人声,比如几个人围绕Echo谈话的时候,Echo只会识别其中一个人的声音。1 u. e- r8 b8 F2 ]- c' ~
7 K U4 o5 x B! k
阵列增益:这个比较容易理解,主要是解决拾音距离的问题,若信号较小,语音识别同样不能保证,通过阵列处理可以适当加大语音信号的能量。
$ q) c* M) |# l) d
G! \2 t( m+ R8 q' A 模型匹配:这个主要是和语音识别以及语义理解进行匹配,语音交互是一个完整的信号链,从麦克风阵列开始的语音流不可能割裂的存在,必然需要模型匹配在一起。实际上,效果较好的语音交互专用麦克风阵列,通常是两套算法,一套内嵌于硬件实时处理,另外一套服务于云端匹配语音处理。 |
|