【Google又出手】AI“计”出崭新声音 NSynth打开电音新一章?

撰文: 王嘉政
出版:更新:

WannaCry病毒弄至人人自危,原因无他——重要档案(包括情欲对话)外泄的话,唔死都一身潺。
但老板教落,做人目光要放远点:若然人工智能(AI)他朝像《未来战士》般反击人类,才是认真大镬。
但全能的Google却一于少理,AI部门的新搞作NSynth竟然结合人工智能和神经技术,能够创造出新声音之余,更能用直觉演奏电子乐器?

(网络图片)

NSynth全名为Neural Synthesizer,即是“神经合成器”。你未必听过“合成器”三只字,但肯定听过它的声音。由Canto-Pop《眼晴想旅行》到K-Pop《Gangnam Style》,或是热血动漫的主题曲……当中凡是电子音色,均需经过声音合成(Synthesis)的过程。广义来说,合成器和相机一样有Analog和数码之分,但两者通常的声音合成流程大致离不开某些相同“组件”(有点像电路板)。

并非合奏

但比起使用“组件”和既定流程,由Google旗下核心AI实验室Google Brain团队着手进行的NSynth则破天荒地利用“神经网络”(人工智能的一种,结构彷照生物中枢神经)大量搜集数据,把每种乐器声音分解成各类数值,经过计算和学习后重新结合。举个例子,NSynth能分析“笛子”和“风琴”的数据,但所产生的并非“笛子+风琴”,也不是“笛子和风琴合奏”,而是一种未命名、从未出现过的全新声音。

上图是乐器原先的音色数值,下图则是NSynth运用WaveNet运算后的新数值。(Magenta网页图片)

要知道人工智能最叻(兼最恐怖)的地方,是在于不断学习进步,随着NSynth的声音数据库不断扩展,所合成出的乐器声音相信亦会越趋逼真。由Jessie Engel、Cinjon Resnick为首的研究团队表示,希望开发一样创意工具予音乐制作人,同时刺激机器学习(machine learning,人工智能一大范畴)圈子在音乐方面的研究,说了这么久,大家还是到NSynth网页亲耳试听较实际。

至于想玩的话可能要等等,事关NSynth下星期才正式在科技展亮相呢。