文字_林新遠
隨著科技的不斷發展,計算機與音樂的結合日益深入。當下,我們的生活中不斷充斥著一個名詞“人工智能”(Artificial Intelligence,簡稱AI),它深刻影響著我們的工作與生活,現在在醫療、購物領域幾乎隨處可見,在音樂創作方面亦然。如今我們也能聽到許多由AI“創造”的音樂作品。其實,計算機音樂、人工智能音樂早已不是一個新名詞了,可追溯至二十世紀五十年代,《伊利亞克組曲》()就是一部由計算機創作的音樂作品。提及計算機對音樂創作的影響,我們不可繞開的一個概念便是“算法作曲”。
算法作曲,又稱“自動作曲”,是指創作者使用某種形式化過程(如編程)來生成音樂。由于創作過程的不同,算法作曲可被分為計算機輔助創作、計算機獨立完成兩種方式,后者則是AI作曲的雛形。為何將計算機獨立完成音樂創作的方式稱為AI作曲的雛形呢?這是由于當下我們對AI作曲的認識不僅停留在“獨立”完成上,還寄希望于AI能擁有人一般的“大腦”與“情感”。雖然計算機輔助創作與AI作曲之間有著密不可分的關系,但兩者又有所區別,AI作曲更像是計算機輔助作曲遺傳變異的結果。這類創作形式,計算機的自動化程度較低,大多需要人為干涉操作。通常情況下,計算機輔助創作有多種運用方式,如對聲音進行處理、利用一些數據來設計算法、使其生成音高與節奏等。
在對聲音進行處理時,計算機需要參與的內容較為簡單,包括對聲音素材進行變形,改變音高、速度、切片等。

在使用實時方式時,我們可以通過計算機編程,借助Kyma、MAX/MSP等輔助算法作曲系統(CAAC)來實現。例如,作曲家可以提前將需要使用的數字信號處理器以插件的形式搭載在輔助算法作曲系統上,或者直接使用輔助算法作曲系統在預先設計好算法后,搭建起所需要的數字信號處理器模塊。當音樂演奏進行到指定位置時,作曲家可通過人為控制數字信號處理器模塊或者動態變化音量,來實時觸發與關閉數字信號處理器模塊。
無論選擇以上哪種形式,計算機此時需要做的工作就是對聲音進行改變,通過算法創造“新聲音”的方式,正是計算機協助作曲的魅力所在。
關于計算機輔助作曲的早期實驗,大多基于當代音樂強調“不確定”性的創作觀念。作曲家開始使用計算機進行輔助創作,就等于擁有了一個很快做出隨機決定的工具。《伊利亞克組曲》的第四樂章主要通過運用馬爾科夫鏈和表格進行創作,其使用了概率表來控制四把提琴聲部中的間隔分布,固定音型被設置為八分音符,計算機只用來決定八分音符的音高。整個樂章隨旋律間隔分布的概率表每秒鐘改變一次,第一個表將重復音高的概率設置為100%,將任何其他旋律間隔設置為0%。如果計算機將相同的音高分配給兩個連續的八分音符,它們會自動含糊不清,構成一個較長的音符值。因此,樂曲開篇的前兩小節正是如此,在持續性的音高中展開全曲。
利用算法生成音高節奏的方式,并不局限于傳統作曲觀念中的“音高”與“節奏”等維度,同樣作用于音頻素材與MIDI素材當中,我們以Somax-2為例。
Somax是一個可以在MAX/MSP系統中使用的實時人機即興創作的模塊。該模塊可以通過在一個音頻或是MIDI的素材庫中,采用重組其頻率、切片、循環的方式實時生成新的即興音樂片段,同時也可以接收和轉化音頻、MIDI信號,并提取其中的切片內容。
此外,“自適應模型”為多層樹狀結構,每層可實時捕獲特定參數,并且每層可進行參數的匹配,從而進行合并和縮放。它基于OMax(另一套人機即興模塊)之上,添加了反應性這一概念,使得系統不僅能從輸入端接收信號,還可以對音樂家的演奏進行實時的反饋,從而營造一種共同即興的效果。
無論是《伊利亞克組曲》還是Somax模塊,他們都需要大量的人為參與。前者需要對參數不斷進行設定與修改,從而使馬爾可夫決策過程得到一個較好的反饋結果;后者則需要演奏員對其音頻或是MIDI信號輸入,使其擁有更多可供處理的信息。
因此,計算機輔助作曲的手段,或者說傳統意義上的算法作曲,并不能與當下AI作曲相提并論,AI作曲可以被視作算法作曲的一種進化與蛻變。
推動機械化高效生產。采用綜合技術和現代設備相結合的方式,積極采購竹材、竹筍等采伐(掘)專業設備,對環境友好的竹產品、竹制加工品等的相關生產流程給予經濟補助。
大量的音樂理論家曾深度剖析莫扎特、貝多芬、肖邦等知名作曲家的音樂作品,對其中的旋律、和聲布局、音樂結構、配器方式等一系列技法問題進行深入的研究,并提煉出系統化的分析方法。算法作曲正是將不斷變化發展的音樂創作技法,轉變為人工智能中的參數,即對傳統作曲技術手段的數字化運用。當下,人工智能在各個領域逐漸成為熱門話題,提及人工智能作曲,我們不得不提及機器學習。
機器學習實際上就是科學家希望機器能夠像人類大腦一樣進行思考。我們提供給計算機一個數據庫,讓它對其進行學習,然后通過對數據的分析處理形成新的結果預測與預判。將機器學習映射至作曲技法上,我們可以得出“監督學習”“無監督學習”“半監督學習”“強化學習”等結果。

所謂“監督學習”,就是讓機器在有“答案”的條件下提取數據,并得到一個函數,根據這個函數去進行結果預測。例如,我們可以將其運用于和聲習題的批改上,在古典和聲體系中,因受限于具體時期的音樂風格,故而產生了許多條條框框的“規則”。在“監督學習”的過程中,我們可以將這一系列不符合風格時期的和聲進行,提前在機器中設定為錯誤的和聲進行方式,機器便能夠以此為依據,參照這一標準,逐步完成和聲習題的批改。
“無監督學習”則是對數據庫進行分析,但無需對其中的某項結果負責,僅分析潛在的規律。例如,我們可以將其運用在分析莫扎特作品的橫向旋律的音高走向、縱向和聲的音高構成,以及音樂的節奏、速度、力度等方面,機器可以根據其通過分析所得出的結果,有效建立一個模仿莫扎特風格的寫作模型。當然,“無監督學習”并不單單局限于對單一的某個特征數據進行分析,我們希望能夠通過一系列的數據分析幫助我們建立其復雜的分析應用系統。
實際上,我們還可以將“監督學習”與“無監督學習”兩種學習方式結合到一起,一部分數據能產生“答案”,另一部分則能為我們總結“規律”。例如,我們可以運用“無監督學習”分析莫扎特作品中的一系列數據,然后將“規律”建立為相應的模型,運用“監督學習”的手段對其進行訓練和預測。這樣系統的數據分析方式,更有利于我們后期建立多維度、綜合性的分析應用模型。
“強化學習”則是根據周圍環境的反饋做出變化。例如,我們在建立模仿莫扎特風格寫作的算法模型時,該模型會自主生成一系列結果,我們在訓練的過程中對結果進行干預,這一過程猶如我們教小朋友區分“對”與“錯”一樣。在我們對結果進行干預之后,算法模型就會收到反饋,通常我們會使用獎懲機制來進行反饋。當算法收到反饋后,它就會相應地改進自己的行為模式,以此不斷地反復循環。這樣,我們的算法模型就可以通過一次又一次循環,強化算法模型的“智能”性。這個過程已經非常接近人類的真實生活狀態了:不斷優化結果,改正自己的錯誤行為。
不難發現,上述四種機器學習的方式都是基于一種“見招拆招”的模式之下,只能適用于較為單一的運用,很難用于處理更復雜的情況。人工智能作為一門跨學科的領域,基于腦科學的發展,通過人類對大腦已知的工作原理,使得機器模擬出人腦的結構——人工神經網絡。(見下頁示意圖)
對上述模型的訓練,需要巨大的資料庫。先以正向傳播的方式輸入該模型與現有的“答案”,隨后進行比較,算出兩者之間的差值,接下來再通過反向傳播的方式,以減少差值為目的,調整每一個感應器。從理論上來講,只要學習的資料足夠龐大,在計算機計算能力足夠的情況下,該模型可以通過不斷反復學習,成為一個系統性的模型。

示意圖
通過深度學習的方式,我們可以看到當下已經有許多人工智能作曲的產物。例如,索尼計算機科學實驗室的研究人員蓋坦·哈杰里斯(Gaetan Hadjeres)與弗朗索瓦·帕切特(Francois Pachet)開發出了一種名為“深度巴赫”(Deep Bach)的神經網絡,它可以學習如何創作巴赫風格的復調圣歌。研究員使該設備學習了巴赫的三百五十二首眾贊歌,進而用它創作出了近似巴赫眾贊歌風格的音樂;在人工智能的幫助下,來自洛杉磯的作曲家盧卡斯·康托爾(Lucas Cantor)用手機續寫了舒伯特的《未完成交響曲》;人工智能“作曲家”AIVA通過機器學習的方式創作了大量音樂,其范圍涉及流行歌曲、古典音樂、影視配樂;清華大學生物醫學工程專業博士生,運用人工智能寫歌,參加選秀節目。上述均是AI作曲的優秀成果。
人工智能的發展,使得計算機不再是輔助作曲的形式,而是逐步在向擁有“人”一般“獨立思考”能力的方向發展。
盡管人工智能的發展十分迅速,但當下在AI作曲方面仍然存在著許多問題,有待我們解決。只有解決好這些問題,我們的AI作曲技術才能進一步提高。
有不少愛樂者提出,作曲家通過人工智能進行作曲是否會失去音樂創作的初衷呢?當下人工智能的智能化程度相對而言還是比較低的,并沒有完全達到人們對它的預期。我們對一部音樂作品的期待值,并不單單取決于音樂本身,而有相當一部分是基于情感的宣泄。目前的AI作曲更傾向于是一個完全沒有感情的“人”,它通過對成千上萬首歌曲、音樂進行技術分析,從而機械式地將一個一個音符計算出來。AI如果無法真正意義上擁有“人”一般的感知能力,即使對成千上萬部經典作品進行學習,也無法創作出“優秀”的作品來。
音樂學界的專家、學者也曾提出“AI作曲是否存在同質性”的質疑,由于AI作曲是基于大量的樂曲學習,通過算法邏輯推斷生成的結果,很容易與所提供的素材庫有雷同。我們知道,人類作曲家是很謹慎地使用音符的,更會注意避免“雷同”問題的發生。因此,AI創作的音樂同質性的特征,極容易產生“抄襲”的現象。
AI作曲在很大程度上是基于對過往作曲手段的深度“學習”,在音樂風格上也會存在著一定的滯后性。目前的AI作曲仍處于一個通過規律選擇邏輯推斷的階段,尚未形成自主創新力。雖然有一定量的學習內容,但是卻沒有學習后擁有的舉一反三的能力。正如普通畫師不可能靠著一輩子臨摹大師的作品成為畫壇巨匠一樣,AI真正缺乏的是自主的創新力。
音樂創作是一種腦力負荷極大的活動,作曲家必須具有個性化的音樂語言、多樣化的風格類型以及飽含哲思性的人文理念,創作的難度不斷加深。不得不說,人工智能的發展能夠更好地服務于作曲家的音樂創作活動。AI已經從提煉與運用過往的作曲手法,逐步發展為通過分析數據,以期能夠創作出具有“情感溫度”的音樂作品。至少從目前來說,AI作曲還是能夠生成一些優秀音樂作品的,例如流行歌曲、氛圍音樂等。未來,AI作曲將不僅局限于音樂創作方面,還會延伸至聲音設計領域。
AI作曲可以有效地幫助我們省掉許多機械化、重復性高的工作。例如,我們可以通過人工智能加強總結我國民族化創作道路上的那些成功作品的特征,這些“規律”可以幫助當代作曲家實驗更多新的音響與創作思路,關注如何通過算法增加不確定性,幫助他們在未來創作出更具時代意義的作品。AI作曲的發展之路,將不再局限于生成一些有規律的音高組織片段,而是擴大對音樂要素的數據分析,在不斷總結原有音樂“規律”的基礎上,涵蓋更多日常生活中的聲音,甚至未來一系列存在于我們生活中的聲音,都會成為音樂的一部分。AI作曲的輻射面將越來越寬,這將促進作曲技術手段的發展,促進音樂分析理論研究。
此外,AI 作曲對聲音的設計也可以緩解人類的精神壓力,尤其是生活在城市中的高負荷工作人群。我們知道,當精神高度集中時,為了排除自身其他想法對該工作的影響,無聲的環境并不是最佳的選擇,甚至身處完全靜音化的世界會使得大家的情緒過于緊張。未來AI的聲音設計系統,可以通過釋放具有療愈功能的新聲音,適度地刺激人們緊張的神經,舒緩情緒,提升工作的效率。目前,日本東京藝術大學人工智能實驗室致力于研發一項聲音/音樂自動生成系統“SoundDroid”,該系統把提升工作效率作為目標。如果該系統能夠成熟運用,其原理同樣可以運用于人們生活的其他方面,例如在放松、睡眠、情緒誘導、背景音樂(BGM)、音樂治療、餐廳和酒店等氣氛營造中。
人腦的認知活動從未停止,同樣對AI的理解也會隨著人類各學科的發展與認識得到提升。隨著計算機音樂的發展,從計算機輔助作曲到人工智能作曲,再到未來的“強”人工智能,將會是一個必然的發展趨勢。