【Google又出手】AI「計」出嶄新聲音 NSynth打開電音新一章?

撰文:王嘉政
出版:更新:

WannaCry病毒弄至人人自危,原因無他——重要檔案(包括情慾對話)外洩的話,唔死都一身潺。
但老闆教落,做人目光要放遠點:若然人工智能(AI)他朝像《未來戰士》般反擊人類,才是認真大鑊。
但全能的Google卻一於少理,AI部門的新搞作NSynth竟然結合人工智能和神經技術,能夠創造出新聲音之餘,更能用直覺演奏電子樂器?

(網絡圖片)

NSynth全名為Neural Synthesizer,即是「神經合成器」。你未必聽過「合成器」三隻字,但肯定聽過它的聲音。由Canto-Pop《眼晴想旅行》到K-Pop《Gangnam Style》,或是熱血動漫的主題曲……當中凡是電子音色,均需經過聲音合成(Synthesis)的過程。廣義來說,合成器和相機一樣有Analog和數碼之分,但兩者通常的聲音合成流程大致離不開某些相同「組件」(有點像電路板)。

並非合奏

但比起使用「組件」和既定流程,由Google旗下核心AI實驗室Google Brain團隊着手進行的NSynth則破天荒地利用「神經網絡」(人工智能的一種,結構彷照生物中樞神經)大量搜集數據,把每種樂器聲音分解成各類數值,經過計算和學習後重新結合。舉個例子,NSynth能分析「笛子」和「風琴」的數據,但所產生的並非「笛子+風琴」,也不是「笛子和風琴合奏」,而是一種未命名、從未出現過的全新聲音。

上圖是樂器原先的音色數值,下圖則是NSynth運用WaveNet運算後的新數值。(Magenta網頁圖片)

要知道人工智能最叻(兼最恐怖)的地方,是在於不斷學習進步,隨着NSynth的聲音數據庫不斷擴展,所合成出的樂器聲音相信亦會越趨逼真。由Jessie Engel、Cinjon Resnick為首的研究團隊表示,希望開發一樣創意工具予音樂製作人,同時刺激機器學習(machine learning,人工智能一大範疇)圈子在音樂方面的研究,說了這麼久,大家還是到NSynth網頁親耳試聽較實際。

至於想玩的話可能要等等,事關NSynth下星期才正式在科技展亮相呢。