|
2#

楼主 |
发表于 2022-1-18 18:23:51
|
只看该作者
最后根据经验选择的阈值通过比较 中的信号能量确定完整的风噪掩膜 。这一方法的缺点是低频的语音信号可能会包含进风噪掩膜中被滤除。
/ N3 U0 R! A1 s) d2 t/ _
+ `) F0 \1 n9 |- P: d& e5 d
4 `) J8 l, k+ I x
+ c3 q; Q# j. T8 j2 g$ Q
' U7 h( {; A1 z3 h& }图8 形态学方法估计风噪掩膜步骤[2]9 E! { T5 O# I! T
2 w0 }" [( S' S; C, r1 V噪声模板方法 该方法的基本思想是将风噪的声谱图分解为谱包络和精细结构,倒谱分析可以实现这个目的。首先计算带噪信号的倒谱系数。( M$ K# W6 {+ g' I5 [2 f
& u* V' O0 T, Z f/ a
保留带噪信号倒谱的高阶系数,处理低阶系数。将低阶系数变换回STFT域生成谱包络。
( G2 J4 o' e! _" a1 ?+ ?, Z* O" g% J8 ?) i
将谱包络与预先训练好的风噪声参考谱包络模板 进行比较,取平方和误差最小的模板 计算低阶倒谱系数来替换带噪信号的低阶倒谱系数,并与带噪信号的高阶倒谱系数组合,经逆倒谱运算即可得到风噪短时功率谱的估计。, C( {3 j" N* E/ m, u& R/ i
# d& \+ k) I2 X' o; G* c0 E+ g. O
& W' a: T5 c3 V$ |+ t; @+ h图9 噪声模板方法[2]
2 F2 \% E% N0 @( C
2 J2 B: M3 e# e1 }% ^) g, r% P5 [谱质心方法 谱质心是信号能量关于频率的一阶矩,可以反映信号主要能量的频率分布。谱质心方法的核心思想是通过谱质心和其他信号特征分析带噪信号的组成成分,先对信号进行分类,然后进一步决定风噪STPS的估计策略。9 Y! J- W) S4 @* A0 }
3 K, G# `- S( M* x# I0 A
计算谱质心 可以将带噪信号分为三类[10]:纯风噪( <200Hz)、风噪语音混合信号(200Hz< <550Hz)、纯语音( >550Hz)。
3 s" ?. W2 s$ h; N7 J# k. [3 `. z3 d2 Y5 x. v8 n, O7 G8 a$ M
9 u% j6 n4 C8 {6 ~图10 不同信噪比下谱质心的差异[2]5 f ?; E, _# A7 v
& z) L3 A. p6 E e
通过谱质心和短时平均等特征对输入带噪信号进行三分类。第一步判断是否为纯语音,若为纯语音则该时频窗风噪的STPS为零。第二步判断是否为纯风噪,若为纯风噪则风噪的STPS就等于输入信号的STPS。若信号被判断为语音和风噪的混合信号,则进行进一步的风噪估计,方法包括最小拟合估计法[10]和自适应音高估计法[11]等。
9 Y6 E( @5 p7 H, _4 [. L6 {; m! C; x4 t5 ?. S. A- v7 z" k4 O
R: C# R3 ~7 Y$ J# F4 G8 w8 i9 ^( d图11 谱质心方法流程图[2]
% C G5 f5 E, U d/ r1 g! w2 p) }% G6 m. y
深度学习方法 风噪声可以通过深度神经网络来估计,[12]提出通过前向深度神经网络(FNN)来估计风噪声的幅度谱。方法是先估计语音信号和风噪声的理想幅值掩膜(IAM) 和 ,然后从带噪信号中分离出语音成分和风噪成分。; ?2 D& B& }4 l8 z
8 y) p, C' [, J* d' A) X
使用两个FNN分别估计 和 ,如下式所示, 和 表示网络参数。神经网络的训练使用[13]中方法使估计的信号和风噪声幅度谱与目标幅度谱的均方误差最小。
/ Y0 B; @0 e& K z" e; R) a
% U T: i' q1 m1 ?
5 r: @% `/ d" c/ [8 Z+ P7 q& T7 ~7 p图12 深度学习方法流程图[12]# y* Q, N! t$ M
. J. `# a' O9 B& o增益估计
% G" A9 w7 t9 P& G4 K- g: [, C
4 A, ~) Y/ L( x1 F2 D如图7所示,基于频谱滤波的风噪抑制方法重点是求解增益。传统方法如维纳滤波法和谱减法不能取得很好的效果,下面总结几种增益的求解算法。
# @: }9 o4 o5 n; i" q( D
# d1 {6 u% x2 F" y0 V5 M) ~/ z% E决策导向信噪比估计 该方法[14]在维纳滤波的框架下提出了一种更新先验信噪比 的方法求解增益 。) }7 q( B4 U% D( R6 M( V
5 {! M7 N) z! Q风噪抑制系统的后验信噪比估计 可由下式得到。该方法可以提升被增强语音的主观质量,尤其是减少“musical tones”。
# r% b' h# o g* @9 k7 u& @2 d7 A7 |" i) m p2 U0 f9 g% k
递归增益的谱减法 该方法[8]的目的是为了避免单个离群值对增益计算造成的影响。因此引入一种使用前一时频块增益的回归运算来计算当前时频块的增益。& w# g( X; M- g
4 l& ^! O3 f9 P软可听噪声掩膜法 该方法[15]的基本想法是根据心理声学模型在噪声抑制和引入失真之间寻找平衡,即令下式最小。' s: H" T; X4 p- q
- C: T$ {4 u2 D/ {其中 是根据心理声学模型计算得到的掩膜阈值。由上式推导可得增益估计值如下,参数α可设经验值1。+ ~5 I2 j( g( s% J6 i" [
+ A9 R% v% R J( K. J: q# ?7 F$ u多传声器风噪抑制技术: n5 Y$ D: ~$ i! q# [
. d9 w4 o5 g _" Q7 u当前最新的智能手机和TWS耳机配备有2个或更多的传声器。因此可以考虑基于双传声器的风噪抑制方法。1 S3 x5 U2 ^# h4 p, r
8 Q; `# X: {6 V' z2 A- N$ z4 U& a
相关加权方法 该方法[16]的思想就是利用语音和风噪的相关性差异,使用幅度平方相关(MSC) 来计算增益,$ O" S9 L; _, W3 M6 i; @: q- \
4 D/ @. u6 S% J
差分阵列方法 该方法[17]利用了传声器阵列对于不相关噪声(如风噪声)比较敏感的特点来降风噪,引入功率比的概念,
( E; d+ v8 j+ s( c3 Y5 Q
0 g6 U9 P5 Z7 I" b3 {! `- o' |" H其中 和 定义如下,3 d- p' w: ^0 ?# t" {$ r
2 H* o" Q1 d: h
功率比可以有效分离语音和风噪,如下图所示。从图中可以看出,当传声器间距较小时( )功率比可以较好的分离风噪声和语音。增益函数通过计算纯净语音功率比和带噪信号功率比的比值确定。
2 h4 h2 T4 h7 S" I1 s
: y; n! C4 X1 Q9 p& f: r: Q
" \3 A; W6 b5 N# A7 v& d6 U图13 风噪声和语音功率比[2]
, G+ Z% n% l+ r3 J O5 \5 F. z/ N2 ?7 r1 R' S) @# i* j
复相关风噪估计方法 根据[18],假设传声器x和y处的风噪不相关且能量相当,传递函数也相似,则可以得到如下关系,) v' x8 o& V$ Y$ W
( E0 C( f8 t- k8 I+ a5 B
于是风噪声的功率谱密度可以用下式来估计,
! f& V& a" l( s+ ]7 |, q( G+ w9 @" `
在信号DOA已知的情况下引入复相关的相位信息 [19],
, f. a7 C2 R* r: O! J
) h# P" A9 Q5 T对于相关的语音信号, ;而对于不相关的风噪声, 呈现均匀分布。& ?" T1 ?& }$ n" }1 {% C% }
4 i& F8 u1 G, b1 `8 S
0 [5 P) G. ]( O& N9 O# J7 l
图14 语音与风噪声复相关的相位信息分布[2]
! Q; k* w$ M& n. d" y. L# e
% O2 D3 N0 M% P风噪声的STPS估计由下式给出。
0 U( R' ~! T/ G& o3 O
8 o! x7 v0 A# R T) W6 r2 @, a) h部分语音合成
4 t9 v& W5 z q' b3 I
* _. @5 r* X! c2 L+ i4 ]实现风噪场景下的语音增强,除了通过抑制风噪,还可以通过部分语音合成的方式。称其为部分语音合成是因为算法保留了原始带噪信号中的不受风噪影响的高频语音(主要为清音),只合成受风噪声影响严重的低频语音(主要为浊音)。实现方法如下图所示,系统可以在抑制风噪的同时合成语音,二者结合生成对语音信号的估计。6 K. @) C# {. n% j2 ^# P# l- e
! p$ w) s( z- B# V
/ M/ z% {9 B9 K! c0 b* j$ Y图15 结合语音生成的风噪抑制框架[2]
1 n8 p& \3 R8 o/ ^0 V. V3 }3 i$ T$ x2 k2 |8 Q' l
基于重建的部分语音合成 该方法[20]的基本思想是关注被风噪破坏的低频语音部分,将问题转化为带限语音的增强问题。语音生成部分采用线性预测编码(LPC)实现。带噪语音信号通过截止频率 的高通滤波器保留未被风噪影响的高频部分,滤波器截至频率由下式给出。. b4 g8 q8 w5 W( C" j( g
/ ?, f3 o& ]$ J3 F8 s
纯风噪上限频率 和语音重构上限频率 可根据经验取值(100Hz和1500Hz)。原始信号中包含风噪声的低频部分由人工合成的语音替代。* H- m5 s' g& C" p. {
/ e |% k7 O! I( p3 `( c% L% ^, M3 e3 K ?
图16 基于重建的部分语音合成框图[2]3 [% j7 N @# C
& n, p' S3 T" ^; C# R; ~- b
基于语料库的部分语音合成 与基于重建的部分语音合成相比,该方法的主要区别是引入了预先训练好的语音信息,方法的流程图如下图所示。方法的主体部分由三部分构成,一是语音合成,不同点在于该方法的激励信号通过音高模板循环(TPC)生成,声道滤波器系数通过比较特征向量的相似程度在预先训练好的字典中寻找合适的系数。二是计算用于结合风噪估计和语音合成的二值掩膜,三是使用传统噪声抑制手段抑制残留噪声,具体实现方案参见[21]。8 r/ {( g9 j) X+ y2 l! o
! `4 @1 |% u; H6 C1 N" r
+ i! C% G; m, a/ Q图17 基于语料库的部分语音合成框图[2]4 O# f. q& Q8 C3 ?6 g
$ P' y% p3 |* J. v% f$ {
展望
# c) Z+ s3 G4 |, \: _
- E& ~! B* L" x7 Z" ]到目前为止,人们从多个角度出发,想出了多种抑制风噪的方案并取得了巨大的进展,但距离完全解决声频采集中的风噪问题仍有很长的路要走。例如在大风噪情况(SNR<-10dB)时语音增强算法失效问题,实时风噪抑制问题等还没有得到很好的解决。作为声学领域最具挑战的课题之一,风噪问题还需要更多能人志士投身其中,继续研究。7 [0 N' [/ ?" V' l& `
+ m7 u m! W" k$ V2 R: U
参考文献8 S. n' m9 z$ g1 L
[1] 戈尔茨坦. 气动声学[M]. 国防工业出版社, 2014." |+ K) T! r. U# Q9 M6 I7 f- [
[2] Nelke C M. Wind Noise Reduction: Signal Processing Concepts[D].2016.
! v# s1 U' U6 V! K: M, x8 {[3] Fisol U M M, Ripin Z M, Ismail N A, et al. Wind noise analysis of atwo-way radio[C]. 2013 IEEE International Conference on Smart Instrumentation,Measurement and Applications (ICSIMA). 1–5.
9 _: a! N( {7 _+ ~5 z0 c[4] Nemer E, Leblanc W. Single-microphone wind noise reduction byadaptive postfiltering[C]. 2009 IEEE Workshop on Applications of SignalProcessing to Audio and Acoustics. : 177–180.$ f2 i/ w1 R7 X
[5] Nelke C M, Vary P. Measurement, analysis and simulation of windnoise signals for mobile communication devices[C]. 2014 14th InternationalWorkshop on Acoustic Signal Enhancement (IWAENC). 327–331.: ?% ^0 u; n* |5 Q/ r* Y3 _
[6] LIM J S,OPPENHEIM A V. Enhancement and bandwidth compression of noisy speech[J].Proceedings of the IEEE, 1979, 67(12): 1586–1604.
% ~/ P: y9 [9 s3 h4 \7 w[7] BOLL S.Suppression of acoustic noise in speech using spectral subtraction[J]. IEEETransactions on Acoustics, Speech, and Signal Processing, 1979, 27(2): 113–120.* c* d! w& I5 L0 l; W1 o/ N, h
[8] Hofmann C,Wolff T, Buck M, et al. A Morphological Approach to Single-Channel Wind-NoiseSuppression[C]. IWAENC 2012; International Workshop on Acoustic SignalEnhancement. 1–4.7 H: E7 u' K! o. T- L ?# Z1 H" @1 b0 R
[9] Kuroiwa S, Mori Y, Tsuge S, et al. Wind noise reduction method forspeech recording using multiple noise templates and observed spectrum finestructure[C]. 2006 International Conference on Communication Technology. 1–5.2 f" \* n9 I! \6 T y
[10] Nelke CM, Chatlani N, Beaugeant C, et al. Single microphone wind noise PSD estimationusing signal centroids[C]. 2014 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP). 7063–7067.2 O. j8 Q1 i b& y
[11] Nelke CM, Vary P. Wind noise short term power spectrum estimation using pitch adaptiveinverse binary masks[C]. 2015 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP). 5068–5072.: d- D! t/ h0 |
[12] Bai H, GeF, Yan Y. DNN-based speech enhancement using soft audible noise masking forwind noise reduction[J]. China Communications, 2018, 15(9): 235–243.. ~- |& L: l- Z+ Z% O& p
[13] Wang Y,Narayanan A, Wang D. On Training Targets for Supervised Speech Separation[J].IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(12):1849–1858.' X# g: t% ?8 b2 a8 N, e
[14] Ephraim Y, Malah D. Speech enhancement using a minimum-mean squareerror short-time spectral amplitude estimator[J]. IEEE Transactions onAcoustics, Speech, and Signal Processing, 1984, 32(6): 1109–1121.
$ W4 m- d3 K; e. o" n5 C- v[15] Yu R. Speech enhancement based on soft audible noise masking andnoise power estimation[J]. Speech Communication, 2013, 55(10): 964–974.% s- O) A2 n# V) `- Z
[16] Franz S,Bitzer J. Multi-channel algorithms for wind noise reduction and signalcompensation in binaural hearing aids[C]. IWAENC 2010; International Workshopon Acoustic Echo and Noise Control. Tel Aviv, Israel.
- X& S; {7 H; _[17] ELKO G W.Reducing Noise in Audio Systems: USA, US7171008 B2[P]. 2007-01-30.7 h; G N- d! h: I+ j: S" T! P
[18] Dörbecker M, Ernst S. Combination ofTwo-Channel Spectral Subtraction and Adaptive Wiener Post-Filtering for NoiseReduction and Dereverberation[C]. European Signal Processing Conference(EUSIPCO). Trieste, Italy.. M" P3 K2 v6 l
[19] Nelke CM, Vary P. Dual Microphone Wind Noise Reduction by Exploiting the ComplexCoherence[C]. Speech Communication; 11. ITG Symposium. Erlangen, Germany.
3 q9 k8 i3 ]7 C! K, T( W[20] Nelke CM, Nawroth N, Jeub M, et al. Single microphone wind noise reduction usingtechniques of artificial bandwidth extension[C]. 2012 Proceedings of the 20thEuropean Signal Processing Conference (EUSIPCO). Bucharest, Romania: IEEE.
/ l: w' @) R1 A3 z[21] Nelke CM, Naylor P A, Vary P. Corpus based reconstruction of speech degraded by windnoise[C]. 2015 23rd European Signal Processing Conference (EUSIPCO). Nice:IEEE: 864–868. |
|