摘要:人工智能作曲已經成為當前音樂科技的一大重要組成部分。本文通過分析MIDI 2.0協議中的核心MIDI-CI的基本原則與功能,發現交互視角逐漸由以使用者的主觀能動性為重點,變為機器間的自主交互為重點,通過研究EMI人工智能作曲的原理與流程,進一步論證機器的自主交互與自主學習的主要特征。隨著人工智能作曲的發展,機器的訓練與學習變得尤為重要,機器自主交互的開發與拓展是未來人工智能作曲的一個重要方向。
關鍵詞:人工智能作曲 交互 MIDI 2.0
一、引言
在21世紀的今天,人工智能作曲經過38年的發展已經趨于成熟。在人工智能作曲的流程中,人機交互一直是其交互關系的重要方式,并且人機交互也一直以使用者為主體,機器為協助;而由于機器的智能化發展,機器可以進行訓練與學習,也可以進行與其他機器之間的自主性交互,不再局限于跟使用者之間的交互行為。在計算機音樂中,“機器”可以代表計算機,可以代表MIDI控制器設備,也可以代表作曲程序中的某個處理模塊等所有可以與使用者產生信息交互的單位。因此,如何理解機器在交互關系中逐漸由輔助地位走向主體地位是非常有必要的,機器與機器之間的自主交互關系更是逐漸受到人們的重視。
二、MIDI 2.0協議的核心——MIDI-CI
2019年全球的MIDI制造商協會(MMA)和日本的音樂電子行業協會(AMEI)共同宣布經過了多年的協調和研發,MIDI 2.0協議草案正式公布。支持MIDI 2.0的新設備或新軟件都會有一個MIDI-CI模式,這個模式是MIDI 2.0的核心。CI是“能力查詢”的意思,兩個設備通過MIDI連接之后互相會知道對方是什么設備,具備什么功能,有哪些參數可以相互控制。正是因為MIDI-CI,MIDI設備才可以在連接方面有巨大提升。MIDI-CI使用三種查詢方式來發現和配置設備功能。
(一)配置設置:MIDI如何控制常用功能可以用配置設置來定義,這樣設備能夠發現并打開對應的配置設置,讓交互行為具有更好的操作性和易用性,同時降低了使用者手動配置設備的需求。
(二)資源交換:兩個設備由一組系統信息來進行資源交換,設備之間可以發現、獲取和設置MIDI設備的許多屬性。可以交換的信息包括設備配置設置、控制器及音色等。
(三)協議協商:允許設備在使用MIDI 1.0協議還是MIDI 2.0協議之間進行選擇。
從MIDI-CI的基本原則上可以看出,機器的輔助功能得到開發,機器與機器之間的交互關系得到發展。MIDI 2.0的升級更讓我們看到了機器能力在功能上的新拓展,功能上的拓展離不開數據量的累積,比如我們可以在精度上看出MIDI 2.0數據量的提升。MIDI 1.0只有7 bit精度,MIDI 2.0則有16 bit精度。我們假設使用的采樣音頻素材是采樣頻率為44100HZ的立體聲音頻素材,對比一下這兩個精度的數據量,我們采用的數據量計算公式為:數據量(字節/秒)=(采樣頻率×量化字長×聲道數)/8。那么MIDI1.0的數據量為(44100×7×2)/8=77175(byte/s);MIDI2.0的數據量為(44100×16×2)/8=176400(byte/s)。在數據量的對比上可以看出MIDI 2.0關于精度的提升是巨大的。
三、人工智能作曲的原理與流程
談到人工智能作曲,David Cope的EMI人工智能音樂作曲系統是最具代表性的。Cope最初的想法是創建一個計算機程序,該程序能夠具有感受整體音樂風格并學習的能力,然后通過作曲家的創作需要,定向生成新的音樂作品。這樣的作曲方式離不開作曲家和計算機程序之間的交互與合作。Cope使用這些程序學習各種古典作曲家的風格并重新組成完整的作品獲得了成功。音樂智力實驗使用以下三個基本原理進行工作。
(一)解構:分析音樂并分解成“單位” 。
(二) 分類:保留代表風格特征的共性“單位”。
(三)重構:將“單位”重新組合成新的作品 。
這三個原理我們也可以理解為數據的解構、分類與重構的過程。在人工智能作曲流程中,機器與機器的交互是發生最多的,也是運算量最大的。機器的自主交互不止發生在解構、分類與重構的部分,也可以發生在更小的單位之間,或者更大的模塊之間。因此,在人機交互中雖然人占有主要地位,但是不可以忽視機器的自主交互能力,尤其是在智能化越來越發達的今天,智能化機器在自主交互中會產生出不一樣的創造力。
四、結語
我們通過分析MIDI 2.0協議中的核心MIDICI的基本功能和EMI人工智能作曲的原理不難發現,人工智能作曲在快速發展,交互關系的重心也在發生改變。現在作為連接工具的IDI設備也進入了2.0時代,計算機作曲也進入了多種算法作曲相融合的階段。在大數據平臺的支撐下,隨著人工智能整體技術水平的提升,使用者對作曲系統智能化程度要求的提高,交互關系不僅會在機器的自主交互方面有所突破,更會在人機交互關系的其他方面有所發展。科技的進步會逐漸消除人與機器之間的交互障礙,未來交互關系的成熟會讓人工智能作曲實現更多的可能。
(作者簡介:楊維佳,男,碩士研究生,濟南大學音樂學院2018級,研究方向:音樂科技與應用)(責任編輯 劉月嬌)