音频应用

 找回密码
 快速注册

QQ登录

只需一步,快速开始

搜索
查看: 50|回复: 0

[技术] ​ 一次搞懂单声道、双声道、立体声 — 声音处理技术

[复制链接]

8

帖子

0

听众

168

积分

音频应用新手上路

Rank: 1

积分
168
发表于 2018-11-8 11:02:49 | 显示全部楼层 |阅读模式
​ 一次搞懂单声道、双声道、立体声 — 声音处理技术
. W! p1 r; N+ X  e& h5 d1877年爱迪生除了发明电灯,也发明了一个可以回放声音的装置,从此之后声音可以被回放。可以称之为一代的留声机,在这之前声音无法被回放,只能靠文字想象。我们利用一个声道或音轨来重现声音,我们叫做 Mono 或是单声道。
/ _1 g2 V$ I: }8 t- D# Z/ m0 W  }& u. p/ J  U! W/ g8 |  {  |
双声道、立体声 — Stereo
- x0 i3 I" A1 K; I5 G6 E8 n9 Q5 w# s, O+ |
1931年 EMI 的工程师 AlanBlumlein 认为人类是用两只耳朵听声音,为何我们只有一个喇叭呢?所以他发明了 Stereo,Stereo 需要左右两个喇叭发出不同的声音,所以如果你有两个喇叭播放的是一样的声音,我们还是叫做 Mono。Stereo 因为价格与技术上的问题,一直到 1960 年代才慢慢普及,那时候 Beatles、猫王都开始尝试用 Stereo来创造,甚至会标示在唱片封面上。
2 m$ o9 c  e( e2 ]$ Z% s7 O8 v3 s7 q5 M1 p! S1 m/ L/ [+ A
Stereo 虽然叫做立体声,但他离立体还有点距离,因为人类大脑对于判断实体声音超级厉害,以准确度来说大脑的误差在左右正负3度(3度是如果我们画一个时钟是1分钟这么窄)。 3 l" W9 g+ Z. `0 l  i. l' X
7 h7 V3 D+ E1 v3 D8 k0 |9 g9 @
201811051346110270136.jpg
' M3 A  ?" t* B  j/ _
" D6 H1 x% n1 X2 }, n       quadraphonic 四声道& y0 i4 P  |% |. _8 h
1 Z$ y% m1 D% c. E2 b5 ?
为了要让人的体验更「声」历其境,很自然地会想到增加喇叭的数量,所以后来有了前面两个声道,后面有两个声道的 quadraphonic 四声道。四声道在 1970 年红了一阵子,但很快因为成本的问题消失。
; `- e, c; B* h6 x0 L2 ~4 G) m% F! S7 u3 `2 _1 z9 A- w% U( f

& A* M8 U+ j) u0 b+ t( b# M: Q) a; L$ M
5.1声道 — 环场声、环绕声
4 [3 {' Q7 p& r8 f+ u/ q8 s$ V
" D% K5 G* R- H7 i, v 20181105134633075857.jpg
5 f: F/ w- [; s1 ^& |6 x$ @
" p8 A- ]6 ]9 N9 Z5.1 声道5 }( V$ [' P; r* d) F3 {- J# S
4 ]7 _! M: p8 @
我们现在较长听到的环绕音响或是 surround sound 是 5.1声道,前面有三个声道,后面有两个。像 Dolby Digital,SDDS,DTS 及 Pro Logic II 都是常见的 5.1 声道音效系统。一次使用是在 1980年代的电影院一直到现在。( A0 h# M' N! b: U! I1 ]0 G6 [

* M6 Q) O4 D+ K, p! ]3 W% S
& b9 ?6 P, b1 n. }0 }
; Q5 B" h9 ~7 ]& o4 L, |但像刚刚提到的,大脑对于判断实体声源超级厉害,所以即使你有5.1环绕音响,你仔细听,还是听得出喇叭的位置,为了解决这个问题,大家开始增加喇叭数目,每个方向都增加喇叭,然后那个喇叭就只播放那个方向的声音就好,所以就有了 6.1 或是 7.1 声道的环绕,利用增加喇叭数目增加声音播放的精细性。   @# a1 q1 a" w

! e5 h) y9 g, e0 v1 {+ D 201811051346550258396.jpg
$ n: d) n8 q+ N6 q; Y / e5 k3 a% U! T) B

" v7 J, O% o+ O* R! V0 A# z5 }' ~7.1 声道
% o% L3 W7 u( r. j2 E4 |5 U5 f  z
- o; C+ H3 _! t% q这种透过增加喇叭数量来增加声音播放的精细性的解决方案,其实不止发生在水平面,也发生在垂直面。所以后来有了 9.1 环绕,这种放在天花板上的高置声道( high channel)。11.1声道把天花板的喇叭数量变成 4 个,增加喇叭无非是为了增加体验和故事的真实性,让每个人能更融入故事。% c0 Q4 J$ Z4 I
. q  w6 X+ J0 w0 i4 a+ G, ]# }6 N
% ]8 r  z1 f7 i7 T$ ~4 P2 R0 i3 Q

$ C4 N% o( m" k' ~# V声音档案制作 — Channel-Based Sound$ w$ ^6 \3 D" O8 s# K! \& i! e- L
$ {: {: @! [9 P( e; P0 d# d  n% j
了解了声道的概念后,那制作声音档案时,我们都希望用户能更沉浸在声音里,那声道又该如何处理呢?举例来说,我今天想让你听到后面有一只恐龙在叫,前面有个人在尖叫,现在传统的做法是以喇叭的数量为出发,我们称作 channel-based 的作法: 6 e2 Z3 i% I: ?" j" G: M9 h

: a1 {, ^/ ~$ G, i* j 201811051347130925493.jpg & L& x) i( a! C, L% n

& r9 ~( w/ N: N& z7 ]' D2 k+ P+ b2 M+ ^决定声道数为 7.1 声道
$ x( T. [% k4 A+ q# d
; b9 b" l( i( c. @& A0 j首先要决定要用几个喇叭,假设在这个例子里我们用 7 个喇叭的 7.1 声道
* h/ @4 J& k( Z5 ]
" L2 u  l+ ~$ i# |3 ~* j 20181105134727056686.jpg
& _" |" w- ]: a( P1 F$ x2 o: w; M 5 Z; `1 j4 s" @

6 ]; t. v% `# h8 _& m分配声音
' b' }$ P) n5 n8 |' k% w: U. g) v9 e6 ~' F
接着我要把恐龙的声音跟尖叫的声音平均分配到他附近的喇叭里面,接着再把七个喇叭的声音全部包成一个档案,拿到了这个档案后就要去找出 7.1 声道的喇叭配置,然后播放档案。
! @" g$ J$ A5 {7 b* Z" W( k3 _
; T! W4 A+ {0 ~0 e5 X* v; N8 q2 x' h
( M, Q8 K, g8 L1 b- [( _# _
2 {4 F6 E* O, s8 \9 @播放档案之后理论上你就能听到恐龙在后面与前面有人在尖叫,这其实是 1 个萝卜一个坑的道理。所以如果你想要听到 5.1 声道的声音,你就同时要有 5.1 声道的档案和5.1 声道配置的喇叭。9 W8 n, k4 K- U* G& u  m+ H; j

: ?: a7 r* W5 c6 k7 J ) E: Q3 R' M9 S# s1 ]9 K
7 M, @- v! B. ^7 E$ F9 h4 c8 Z4 i1 I
聆听场景与播放设备不断增加,该如何解决?
, n0 u* I! r! `6 ^5 @  s; V
' |+ z/ t4 P+ x: @' @* A现在的时代,除了喇叭配置的选择更多外,播放声音的设备跟播放声音的情境、地点越来越多,然而设备也有不同的大小与性能。我们会希望有一种声音格式可以很有弹性,能适应不同的喇叭配置与情况,让消费者可以简单切换。声音产业为了解决这个问题,目前有两个方向:
8 w' O$ }# a" u+ ?) y! a' R
& Y+ T  ~; z* Z- q
& A+ f- L4 o3 w  w  K1 \% T" n
' x$ H- G; J) I- x/ |- x. s, V/ L一、Object-based 面向对象式
* M% \6 Y/ I4 m4 G6 G$ G# t* q  [3 `6 F8 `
以刚刚的例子(前面有人尖叫,后面有恐龙叫)来说,身为创作者在 object-based 的方式下要决定「这个恐龙什么时候用多大的音量在哪里大叫」,接着根据不同的喇叭配置(双声道、 5.1、7.1、 22.2声道) ,分别做好设定,最后再把信息都打包成档案,这样播放时就可以依照现有的喇叭配置播放声音。& p% U9 r+ x- Z2 o

0 n) W% L1 a, t5 D' P7 l1 R 8 [% g1 Q0 Y$ h. ~! k
, K  F+ Z2 Q* q5 E/ P5 w$ V
除此之外 Object-based 还可以把每个声源当作是一个对象,举个例子来说,当你在看一场直播的球赛,如果球赛里的球评、主播、场内的对象都是分别独立的对象,如果你觉得球评很吵,你就可以把球评关掉,只留下场内的声音,你甚至还能选择主队或是客队的欢呼声,以此创造影音内容的互动,也让观看的体验更有趣。  ?3 u3 T4 z( R4 |

7 |6 V- b8 X* N  n  n
$ }7 w/ j- S0 e# S# x- j4 X! G5 ]: |) M/ q/ T
二、Scene-based 场景导向式
8 c  ]  P7 q. i& B& E! e+ R* ^  B- r) g5 q
场景导向式其实是一个相当大的类别,我们比较常听到的是 ambisonic 的技术,ambisonic 的概念在 1970 年就被提出,他的概念有点像 360度影片,假设我们可以在场地中央放一个麦克风,一口气把整个场地的音场录下来,音场搭配上三维的坐标(X.Y.Z),播放时让喇叭配置依照坐标试着重建音场。 360 度影片就是 ambisonic 的应用之一,也是因为 360度影片,2016年初 Youtube 开始支持 ambisonic。3 [' q1 d1 w5 M! c% I0 U7 v

' V- r( b9 i. {( j- c
& H" C/ N8 o, e6 S$ r5 I6 [4 x1 k( s, r, P$ ~! V7 U& d$ d: p
声音技术的革命正在发生!!* h0 |& ?/ e) C$ x0 q: J, r& x% b' w
8 p) c/ G7 |* l; E& w- q$ B4 Q, N
但是有些问题虽然可以在 Object-based 跟 Scene-based 的技术下解决一部份,但如果声音可以突破声道的限制,那就不会有家里明明有环绕音响,但是看电视的时候听的都是双声道的哀伤。即使有 Object-based 跟 Scene-based 的技术,但是你的设备都是 mono 跟 stereo 的设备 (e.g. 计算机、电视、手机) 那你听到的东西就还是 mono或 stereo。
; U% i+ D8 c! c. A' t3 n
音频应用 Audio app
高级模式 自动排版
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

QQ|小黑屋|手机版|Archiver|音频应用 ( 鄂ICP备16002437号-6 )

GMT+8, 2018-11-16 08:51 , Processed in 1.093750 second(s), 9 queries , MemCache On.

Powered by Audioapp X3.3

© 2018 Audioapp Inc.

快速回复 返回顶部 返回列表