|
2#

楼主 |
发表于 2020-4-10 09:53:01
|
只看该作者
+ K& Y& o! v8 Y0 [3 b# o$ SMusic Segment% F: s+ Q5 t1 J' l% ~
6 y* j( ]3 G8 W+ t: h
首先,我们注意到Music Segment的Transition Manager分支被我标记成了蓝色(并写着Transition Manager:No),这是因为在点选Music Segment时我们无法在Property Editor中看到Transitions选项卡。 1 |$ ~% p, k3 X' @9 N
Music Segment可以说是Wwise互动音乐系统中最特殊的单元:首先,Music Segment具备Sync Point(Entry Cue与Exit Cue),其作用是沟通其子结构单元与父级结构单元,使运用Transition类处理的设计方法能够正常运作;
* p6 a8 F& n! |; X$ P$ u其次,通过观察Music Segment与Music Track的图标我们可以知道Music Segment可以对多个Music Track进行混合,加之其直接子结构单元为Music Track,而对于Music Track来说不存在段落切换式的Transition,因此可以说Music Segment是User / Game Driven的Remixing处理方法的首选结构单元。
1 I% Q6 x1 S, I6 O注:“传统意义上”的纵向音乐设计方法(Game Driven Remixing)的首选运用场所便是Music Segment。 & K* ]! X5 K- ~1 \2 a
另外,由于Entry Cue/Exit Cue在Music Segment中进行设置,因此若要实现类似前卫摇滚的变化节奏,需要设置多个具有不同节拍设置或Entry Cue/Exit Cue设置的Music Segment。2 [; E! e3 {, C& D4 n: Y, e
Music Track
( H7 ^! G/ |) @8 p* G1 T
: z m8 y# z$ f
接下来看Music Track,可以看到与Music Segment类似,其也可被用于User Driven与Game Driven两类Remixing处理方法。而与Music Segment不同的是,Music Track是通过改变所播放的内容来实现“混音”的变化。
( E! T: Y1 J* n e其中,User Driven (Dynamic) Remixing方法可通过使用Random Step/Sequence Step Type Track来实现。
& n3 _2 ?8 F! T7 I5 \6 n5 a而Game Driven Remixing方法则通过Switch Type Track来实现。
+ d: C, I k$ C, p5 u; {+ T1 m我们可以将Music Track看作是互动音乐系统中的Voice,结合Transition Manager来实现音乐的“离散”Remixing处理(不同于以RTPC控制音量的“连续”Remixing处理)。 - k( \$ u; \" ^; {; }1 @: z5 m
注:之所以Sequence Step无法实现Static类型的Remixing处理方法,是因为Sequence Step意味着每次该Music Track被播放,其播放内容会切换至下一个Sub-Track中的内容,因此实际上这种方法并不完全可控,仅切换次序是可设定的。 " H4 B' q _" \( A1 [
注:您可以看到, Music Track的Switch Type Track可用的Game Sync——State与Switch尽管(在不考虑Scope问题的情况下)可用以实现相同的切换,但与State不同的是Switch的切换可由Game Parameter驱动(由此可引出不同的互动方式)。$ g- s/ ]- d8 `9 {5 h$ Z6 t
Clip
2 B: p6 T$ u/ z
! V0 l' E% w% ^然后我们来看Clip,对于Audio Clip来说我们能做的都是User Driven Static Remixing处理,即对其进行简单的音量 、LPF、HPF自动化编辑。而MIDI Clip则会引出极其丰富的处理方法(尽管这些处理方法可能都包含在User Driven Remixing类与Game Driven Remixing类当中),因为MIDI的发声需要触发Actor Mixer Hierarchy中的音频对象,这些对象可以是声源插件也可以是样本或包含样本的结构,MIDI文件包含的CC信息也可被用作Game Parameter控制Switch/Blend Container从而形成User Driven的Game Driven Remixing。但自2019.1.0引入Music Event之后,这种“在User Driven与Game Driven处理方法之间的转换”变得更加容易,对于作曲家来说,可使用的User Driven类音乐处理方法的数量被极大地扩大了。
8 s2 X) o3 A4 `1 c, H# I6 k1 `( F注:由MIDI触发的源、样本或容器对象的混音无法通过互动音乐系统的结构单元进行,需在Actor Mixer Hierarchy中或Master Mixer Hierarchy中处理。3 A- }8 u- g, V R" Q
MIDI的优势
2 c3 t2 ~2 E9 B9 s; a& i为了更好的利用这些由Music Event带来的新的可能性,我们需要将更多的注意力重新投向古老的MIDI技术。实际上MIDI与早期视频游戏音乐的发展密不可分。在其于80年代初发布之后便迅速被各个平台接纳成为计算机音乐开发的通用信息交换协议。LucasArts的iMUSE早期便是基于MIDI开发的(尽管之后移除了MIDI模块)。然而在CD音源开始流行之后MIDI就逐渐变得不再是主流技术了。究其原因主要是作曲家无法绝对准确地预料MIDI音乐在玩家设备上播放的实际效果、以及MIDI在混音上的便利性无法与基于音频的方法相媲美。% e1 `8 ^. f; N) x5 ?1 _- D. h" V
然而随着Wwise MIDI音乐特性于2014年的引入(MIDI被纳入了基于音频的框架内), MIDI的优势正在重新被揭示出来:: e- O7 g7 E% H- A5 B
MIDI体积小,且由于其并非音频文件,而更像是电子乐器使用的乐谱,因此通过扩充MIDI素材来增加音乐变化所需要的成本远低于音频,且游戏中使用MIDI实现的音乐内容越多,这种优势越明显。Remedy音频团队于Wwise Tour 2018上关于Control的音乐设计的分享,便展示了依靠Python批量生成的大量具有不同节奏模式的MIDI素材,在对整体数据体积影响极小的情况下,获得了近乎无限的声响细节变化。同时由于生成与部署都可被自动化,他们还获得了音乐节拍切换上的便利性。推而广之,这种创造节奏变体的方法也可用于有音高的素材;
2 S# ^+ l1 @- Z9 L7 |# U* i从音乐艺术构思角度看,同样的MIDI素材驱动不同的音色可形成相差极大的声响结果,某些情境下也可用以维持不同音响结果之间的内在联系(就像是动机);
8 S, h# X8 S; @9 ]8 u- E以模块合成器的使用思维来看,MIDI音符可作为Wwise内的“Envelop Trigger”使用来驱动实时合成,能提供相较音频更有机的变化,您甚至可将大量音符密度不同的MIDI轨道用作不同速度的实时合成音乐的时钟信号(参见AK Blog上Olivier Deriviere的系列文章);再进一步,Midi CC是很好的静态自动化信息源,用户可以使用MIDI数据中的CC数据影响实时合成的参数来进行声音设计,还可以用其影响游戏的美术表现。/ p2 _( Z! _ d" U( A
Music Event
' X2 L4 ?; ^, J2 M# {在介绍过MIDI的优势之后,我们来看2019.1.0起引入的Music Event特性。之所以将其放在最后讲是因为Music Event可以说是比MIDI更强大的“音符”(MIDI还只能以Clip的形式存在):它并不包含在Clip当中而是独立存在,他能导致的不止某个音频对象的播放——Event能做的几乎所有事情,这个“音符”都能做到。我们可以使用Event来以各种方式控制声音的播放、来混音、来控制声音引擎,甚至可以来驱动动画,Peter “PDX” Drescher便在最近的博文中介绍了Music Event与游戏引擎中动画的交互方式。 ' s" D6 b; b; w1 w
0 w+ {8 S9 R4 W0 n在上图中我罗列了Event下包含的Action,并从音乐设计的视角对其用途进行了简单的分类。在过去,Event是需要游戏引擎发送Game Call才能够被触发的,音乐设计师可以使用Music Callback / Custom Cue来实现类似的东西但是仍然需要Wwise之外的工作(也就意味着需要麻烦程序员)。然而现在他们完全可以自己在Wwise内完成那些工作,这意味着许多设计的实现效率提升,可能性被大大扩大。 ( x& \ L; \, X5 }
* a) t$ w# `# X2 g$ k* J) x; C以Music Switch Container为例,如果我们将使用RTPC与State对混音进行控制的复杂度纳入分析范围,便可从上图中看到:因为Music Event的存在,Event Action中Set Game Parameter及Set State变得可用,导致音乐设计师可以利用Music Event以User Driven Static Remixing技术来改变混音(如果用其控制Sample&Hold也可以是Dynamic的,随意)。 9 C2 ?5 c2 K2 R/ \( t# d3 l
1 k5 F$ F, B9 x" W而回到Clip层面,Music Event对MIDI使用方法带来的变化便是可以利用Music Event来精确控制Switch Container及Blend Container,由此音乐设计师完全可以在游戏中像在DAW中使用Kontakt乐器一样进行创作(想象一下将KeySwitch和Sample Morphing做到游戏中去!): p' l. w* y. N& l/ p. G( l
本系列文章的第二部分将对我们在本章节中列出的八种音乐处理方法进行优劣比较,并对Mozart Dice Game与Terry Riley In C进行Wwise中的重构;并在第三部分中展示利用计算机辅助作曲工具来辅助游戏音乐设计的案例,敬请期待! |
|