999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

試論“人工智能技術(shù)”(AI)在賦格創(chuàng)作中的應(yīng)用

2019-03-12 01:05:26
齊魯藝苑 2019年1期
關(guān)鍵詞:人工智能技術(shù)人工智能創(chuàng)作

崔 佳

(棗莊學(xué)院音樂(lè)與舞蹈學(xué)院,山東 棗莊 277160)

一、人工智能作曲

人工智能是研究開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新興科學(xué)。隨著“云計(jì)算”大數(shù)據(jù)的應(yīng)用,人工智能技術(shù)近幾年有了極大的進(jìn)展,在智能機(jī)器、圖像處理、模式識(shí)別等領(lǐng)域產(chǎn)生了突破性的應(yīng)用。

人工智能在音樂(lè)領(lǐng)域也有廣泛的用途,如利用人工智能技術(shù)識(shí)別樂(lè)譜、分析曲目或輔助作曲等,在一定程度上解決了以往計(jì)算機(jī)自動(dòng)生成旋律過(guò)度隨機(jī)和趨于單調(diào)的問(wèn)題。特別是人工智能作曲,已經(jīng)成為音樂(lè)研究的一個(gè)重要方向,引起了國(guó)內(nèi)外不少作曲專業(yè)和計(jì)算機(jī)專業(yè)專家、學(xué)者的關(guān)注。中央音樂(lè)學(xué)院也在2019年的博士招生目錄中,初次增加了“音樂(lè)人工智能與音樂(lè)信息科技”專業(yè)的招生計(jì)劃,并采取音樂(lè)導(dǎo)師與科技導(dǎo)師的雙導(dǎo)師培養(yǎng)模式。

下面我將以賦格曲為創(chuàng)作目標(biāo),基于賦格曲音頻的音樂(lè)知識(shí)規(guī)則,利用長(zhǎng)、短期記憶循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練,嘗試設(shè)計(jì)研究一種新的自動(dòng)合成樂(lè)曲算法,進(jìn)行人工智能作曲,并將其準(zhǔn)確應(yīng)用到賦格曲的創(chuàng)作實(shí)踐中去。

二、人工智能技術(shù)在“賦格”創(chuàng)作中的應(yīng)用設(shè)想

(一)傳統(tǒng)賦格曲的基本形態(tài)

賦格,來(lái)自拉丁文“Fuga”,意為“逃離”和“追逐”。它是一種開(kāi)放性的復(fù)調(diào)音樂(lè)體裁,在結(jié)構(gòu)上,它可以是單主題或多主題的,包括主題呈示、發(fā)展和再現(xiàn)三個(gè)階段,體現(xiàn)出三部性結(jié)構(gòu)原則。[1](P133-155)

一般情況下,一首賦格曲可能包含的主要結(jié)構(gòu)及其寫作手法如下圖:

呈示部補(bǔ)充呈示或副呈示部間插段緊接段主題、答題(屬調(diào)主題)答題先進(jìn)入材料來(lái)自呈示部主題、對(duì)題或小結(jié)尾主題的卡農(nóng)對(duì)題(與主題、對(duì)題八度二重)主題與答題聲部互換多用“無(wú)縫連接”;采用模仿、模進(jìn)、復(fù)對(duì)位等手法模仿時(shí)間、音程距離、聲部數(shù)量不限小結(jié)尾;自由聲部無(wú)或者較為自由每一間插段后要緊跟近關(guān)系調(diào)的主題/答題(關(guān)系大、小調(diào));屬持續(xù)音結(jié)束以“逐漸緊縮”為特點(diǎn);主持續(xù)音結(jié)束(加變格補(bǔ)充)

圖1賦格曲的基本結(jié)構(gòu)

從賦格的上述基本結(jié)構(gòu)我們可以看出,賦格創(chuàng)作有一定的“程式化規(guī)則”,要求作曲家按照一定的音樂(lè)布局原則和對(duì)位法則進(jìn)行創(chuàng)作,這一類型作品的創(chuàng)作特點(diǎn)與創(chuàng)作技法,與人工智能作曲的運(yùn)算過(guò)程存在不少相似之處,這就具備了運(yùn)用人工智能技術(shù)進(jìn)行創(chuàng)作的基本條件。

(二)人工智能技術(shù)在“賦格”創(chuàng)作中的應(yīng)用設(shè)想

1.使用已有人工智能作曲技術(shù)進(jìn)行賦格創(chuàng)作的利弊分析

人工智能作曲需要計(jì)算機(jī)專業(yè)人員與音樂(lè)家的密切合作,在我國(guó)這項(xiàng)技術(shù)仍然處于起步階段。根據(jù)算法的結(jié)構(gòu)和處理數(shù)據(jù)方法的不同,計(jì)算機(jī)作曲創(chuàng)作方式有以下7個(gè)類別:數(shù)學(xué)模型、基于知識(shí)的系統(tǒng)、語(yǔ)法模型、演化方法、演化發(fā)育方法、混合系統(tǒng)法和系統(tǒng)學(xué)習(xí)法,以下將分別分析利用它們作曲的利弊。

(1)數(shù)學(xué)模型

數(shù)學(xué)模型是基于數(shù)學(xué)公式和隨機(jī)事件的生成方法來(lái)進(jìn)行音樂(lè)創(chuàng)作。在隨機(jī)過(guò)程數(shù)學(xué)模型中,創(chuàng)建的音樂(lè)片段是由一系列非確定性方法來(lái)生成的。最常用的算法是馬爾可夫鏈和各種各樣的高斯分布的變形算法、分形幾何方法和“整數(shù)數(shù)列線上大全”等。“整數(shù)數(shù)列線上大全”提供了一種使用整數(shù)序列來(lái)表示十二平均律音樂(lè)的手段。

這類方法的特點(diǎn)是整個(gè)過(guò)程不需要人的干預(yù),僅需要依靠數(shù)學(xué)模型來(lái)建構(gòu)。在作曲過(guò)程中,作曲家僅能通過(guò)調(diào)整加權(quán)隨機(jī)事件的權(quán)值來(lái)進(jìn)行部分調(diào)控。這是一個(gè)數(shù)學(xué)家和音樂(lè)家協(xié)作完成的過(guò)程,假如以賦格曲為創(chuàng)作對(duì)象,不易對(duì)建構(gòu)過(guò)程中的音樂(lè)作品進(jìn)行隨時(shí)調(diào)整,且生成的音樂(lè)作品的音響和音樂(lè)風(fēng)格不好界定,有可能寫出完全不像賦格的音樂(lè)。

(2)基于知識(shí)的系統(tǒng)

這類方法是從特定的音樂(lè)流派中提取出音樂(lè)特征,并使用這個(gè)特征去創(chuàng)建新的相似的音樂(lè)作品。即基于一個(gè)預(yù)先設(shè)定好的參數(shù)集合來(lái)進(jìn)行新樂(lè)曲的創(chuàng)作,而這個(gè)集合中的參數(shù)就是從希望創(chuàng)造的相似音樂(lè)類型和流派中提取出來(lái)的。通常,這一工作需要一個(gè)完備的測(cè)試集和約束集來(lái)使得整個(gè)音樂(lè)的構(gòu)建過(guò)程變得完整。[2]

根據(jù)這種方法,創(chuàng)作巴赫風(fēng)格的賦格曲還是極有可能的。但此種方法的缺陷在于:“測(cè)試集和約束集”的建立過(guò)程漫長(zhǎng)而繁復(fù),且只能對(duì)相似的音樂(lè)作品進(jìn)行創(chuàng)作,假如是不在“集”或“系統(tǒng)”中的其他風(fēng)格,就無(wú)法作為創(chuàng)作素材所運(yùn)用。

(3)語(yǔ)法模型

音樂(lè)也可以被理解為一種具有特殊語(yǔ)法集合的語(yǔ)言。曲譜的構(gòu)成都是由構(gòu)建這種音樂(lè)語(yǔ)法開(kāi)始的,而之后再由這些特定的音樂(lè)語(yǔ)法構(gòu)造易于理解的音樂(lè)片段。音樂(lè)語(yǔ)法模型通常包含除單一音符外的宏觀作曲規(guī)則,例如,和聲與節(jié)奏等。應(yīng)用該方法的一個(gè)典型的例子是McCormack[3]提出的基于語(yǔ)法的音樂(lè)作曲,在其中使用了一些語(yǔ)法模型和語(yǔ)言處理工具。

此種方法涉及到“作曲規(guī)則”,以及音樂(lè)的基本要素等問(wèn)題,且不說(shuō)對(duì)語(yǔ)法的理解有無(wú)偏差,作曲規(guī)則是否有一定之規(guī),僅語(yǔ)法和作曲規(guī)則之間的相關(guān)性都有待考證。假如用此種方法進(jìn)行賦格創(chuàng)作,可能會(huì)出現(xiàn)作曲規(guī)則的混亂,音樂(lè)要素的不確定,最終導(dǎo)致音樂(lè)體裁和風(fēng)格的偏離。

(4)演化方法

用于作曲的演化方法是一種基于遺傳算法的自動(dòng)譜曲方法。整個(gè)作曲過(guò)程是由類似生物的演化過(guò)程手段構(gòu)成的。通過(guò)突變和自然選擇這兩種演化過(guò)程,各種解決方案朝著最恰當(dāng)?shù)囊魳?lè)片段表現(xiàn)形式不斷演化。

(5)演化發(fā)育方法

演化發(fā)育方法是將上面提到的演化方法與發(fā)育過(guò)程進(jìn)行結(jié)合構(gòu)成的一種新方法,該方法能夠很好地針對(duì)復(fù)雜的結(jié)構(gòu)進(jìn)行生成和優(yōu)化工作。演化發(fā)育方法,通過(guò)不斷的迭代過(guò)程將非常簡(jiǎn)單的曲譜(僅僅包含幾個(gè)音符)轉(zhuǎn)化為一個(gè)復(fù)雜且成熟完整的樂(lè)段,最終獲得整個(gè)音樂(lè)結(jié)構(gòu)。

(4)(5)兩種作曲方法同方法(1)有類似之處,但它更加“智能化”,如同生物進(jìn)化中的“優(yōu)勝劣汰”法則,但最大的缺陷是作品的質(zhì)量完全依賴于一個(gè)叫做“篩選過(guò)程”的算法,通過(guò)篩選不斷淘汰不好的解決方案。“篩選過(guò)程”的標(biāo)準(zhǔn)令人質(zhì)疑,且不適合創(chuàng)作大型作品,因此也不推薦進(jìn)行賦格創(chuàng)作的嘗試。

(6)混合系統(tǒng)法

基于前面幾種方法,往往很少能夠構(gòu)建出在美學(xué)上令人滿意的音樂(lè)作品。因此,不同類型的算法通常會(huì)結(jié)合起來(lái),構(gòu)建一個(gè)混合系統(tǒng),來(lái)綜合各個(gè)算法的長(zhǎng)處和規(guī)避單一算法各自的缺陷。Fox和Crawford[4](P213-223)提出的一種基于多種隨機(jī)方法的混合系統(tǒng)在自動(dòng)音樂(lè)譜曲方面取得了出色的表現(xiàn)。

混合系統(tǒng)唯一的問(wèn)題是其系統(tǒng)變得日益復(fù)雜,并且需要更多的資源來(lái)組合和測(cè)試這些算法。它可以完成各種類型的樂(lè)曲創(chuàng)作,在前面幾種已有人工智能作曲方法里,是最適合進(jìn)行大型作品建構(gòu)的方法,不同類型的算法可以完成不同的作曲規(guī)則,當(dāng)然也完全可以涉及賦格創(chuàng)作這一領(lǐng)域。

(7)系統(tǒng)學(xué)習(xí)法

系統(tǒng)學(xué)習(xí)法,是一種不需要采集正在處理音樂(lè)的數(shù)據(jù),如流派等先驗(yàn)知識(shí)的方法,相反地,系統(tǒng)通過(guò)算法自身從用戶或操作者提供的樣例素材中自動(dòng)收集和學(xué)習(xí)出有用的信息。此種方法通過(guò)音頻特征提取的系統(tǒng),與方法(2)有諸多相似之處,只是不太適合用一個(gè)特征創(chuàng)作一首大型作品。假如用來(lái)創(chuàng)作賦格曲,那么還是劃分成不同部分來(lái)進(jìn)行,主題、答題、對(duì)題等都分類收集,最后進(jìn)行拼接,也許成品會(huì)與你所期待的真正的賦格音樂(lè)特征和音響效果更為相符。

2.基于“IndRNN循環(huán)神經(jīng)網(wǎng)絡(luò)”創(chuàng)作賦格的設(shè)想及實(shí)踐

利用人工智能、深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)的學(xué)習(xí)法,是目前自動(dòng)作曲發(fā)展的趨勢(shì)。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)已經(jīng)被廣泛用于序列數(shù)據(jù)的處理。然而,由于常見(jiàn)的梯度消失和爆炸問(wèn)題以及很難學(xué)習(xí)長(zhǎng)期模式,RNN通常難以訓(xùn)練。為了解決這些問(wèn)題,提出了長(zhǎng)短期記憶(LSTM)和門控循環(huán)單元(GRU)。另外,RNN圖層中的所有神經(jīng)元都糾纏在一起,它們的行為很難解釋。為了解決這些問(wèn)題,采用了一種新型RNN模式,稱為獨(dú)立循環(huán)神經(jīng)網(wǎng)絡(luò)(IndRNN),其中每層中的神經(jīng)元都相互獨(dú)立,并且它們跨層連接。最終實(shí)驗(yàn)結(jié)果表明,IndRNN管理起來(lái)很容易,能防止梯度消失和爆炸,同時(shí)還能讓網(wǎng)絡(luò)長(zhǎng)期學(xué)習(xí)。

下面我就對(duì)應(yīng)用“IndRNN”系統(tǒng)創(chuàng)作一首典型賦格曲的過(guò)程作一描述:

(1)音樂(lè)生成模型相關(guān)的形式化描述

基于AI的賦格創(chuàng)作可以分為兩個(gè)步驟:首先,選取一定量的賦格樂(lè)曲作為訓(xùn)練集進(jìn)行支持向量集的模擬,以得到合適的曲式模型,我選擇巴赫的《十二平均律曲集》中的48首賦格作為基本訓(xùn)練模型,模型構(gòu)建完成后,自然就包括了圖一所示的賦格曲的基本結(jié)構(gòu)。其次,設(shè)計(jì)分類器系統(tǒng),從上述步驟的數(shù)據(jù)庫(kù)中提取不同的結(jié)構(gòu)片段組成樂(lè)曲。分類器的工作按以下幾個(gè)步驟進(jìn)行:一是從賦格音樂(lè)庫(kù)中得到輸入信息的解碼器;二是從賦格音樂(lè)庫(kù)中得到反饋信息的解碼器;三是把應(yīng)用規(guī)則結(jié)果轉(zhuǎn)變到環(huán)境中去的受到器;四是賦格產(chǎn)生式規(guī)則集合構(gòu)成分類器群體,每一個(gè)分類器都有關(guān)聯(lián)的適應(yīng)度;最后是建立對(duì)產(chǎn)生成功的規(guī)則進(jìn)行正向反饋的系統(tǒng)。如果實(shí)現(xiàn)這個(gè)步驟,就可以自動(dòng)選擇設(shè)定好符合規(guī)則的賦格樂(lè)曲的基本結(jié)構(gòu)了。

(2)音頻預(yù)測(cè)訓(xùn)練數(shù)據(jù)集組織

選擇一批音頻樂(lè)曲用于構(gòu)建訓(xùn)練集,仍然選擇巴赫的《十二平均律曲集》中的48首賦格音頻來(lái)構(gòu)建訓(xùn)練集。將每個(gè)樂(lè)曲分割為單位音樂(lè)序列,具體步驟如下:

a.音頻數(shù)據(jù)的采集。

音頻采集首先要?jiǎng)澐植杉纛l單位,劃分過(guò)程需保存音頻韻律的節(jié)拍連貫性和韻律的窄幅音頻特征性,因此,若采樣頻率過(guò)高,采樣周期過(guò)短,會(huì)丟失小節(jié)的完整性,則喪失了作品的旋律與節(jié)奏,若采樣頻率過(guò)低會(huì)導(dǎo)致每次采樣數(shù)據(jù)相關(guān)性下降。經(jīng)過(guò)對(duì)比,我們?cè)O(shè)定采樣周期T=2秒,當(dāng)采樣音頻節(jié)奏為每分鐘80拍時(shí),單位容量的節(jié)拍約為2-3小節(jié)。音頻編碼中,編碼流xm與音頻周期和持續(xù)時(shí)間之間存在關(guān)聯(lián),根據(jù)持續(xù)時(shí)間,將樣本流裁剪成等單位時(shí)間的連續(xù)序列。

b.音頻數(shù)據(jù)特征集的處理。

要從初始特征集合中選取一個(gè)包含了全部重要信息的特征子集,需要遍歷所有特征子集,為了避免產(chǎn)生組合爆炸,我們采取了“遴選子集”的辦法評(píng)價(jià)出它的好壞。

第一個(gè)步驟是“子集搜集(subset search)”,給定特征集合{a1, a2, .... an},我們可以將每個(gè)音頻片段的節(jié)奏特征看作是一個(gè)候選子集,對(duì)這d個(gè)候選單特征子集進(jìn)行評(píng)價(jià)。假定{a2}作為第一輪的選定集,然后在第一輪選定集中加入一個(gè)特征,構(gòu)成新的最優(yōu)解。這樣逐漸增加相關(guān)特征的策略稱之為前向(forward)搜索策略。

第二步驟是“子集評(píng)價(jià)”問(wèn)題,給定的數(shù)據(jù)集D,假設(shè)D中第i個(gè)樣本所占的比例為pi(I, 2...., |y|),同時(shí)保證上述采樣音頻樣本是離散的,對(duì)于特征子集A來(lái)說(shuō),實(shí)際上A確定了對(duì)音頻數(shù)據(jù)集D的一個(gè)劃分,每個(gè)劃分區(qū)域?qū)?yīng)A上的一個(gè)取值,而樣本標(biāo)記信息Y則對(duì)應(yīng)D的賦格樣式劃分,通過(guò)比較兩個(gè)劃分的差異,就能對(duì)A進(jìn)行評(píng)價(jià)。則Y對(duì)應(yīng)的劃分差異越小,說(shuō)明A越接近賦格結(jié)構(gòu)。信息熵是判斷這一差異的途徑。

特征選擇采用過(guò)濾式特征選擇方法,設(shè)計(jì)一個(gè)“相關(guān)統(tǒng)計(jì)量”來(lái)度量特征的重要性,通過(guò)對(duì)頻率和音調(diào)的統(tǒng)計(jì)來(lái)還原人耳對(duì)音樂(lè)的反映。該統(tǒng)計(jì)量是一個(gè)向量,其每個(gè)分量分別對(duì)應(yīng)一個(gè)初始特征,初始特征的重要性由子集中每一個(gè)特征所對(duì)應(yīng)的相關(guān)統(tǒng)計(jì)分量的和來(lái)決定。最終只需要一個(gè)閾值Π,然后選擇比Π大的相關(guān)統(tǒng)計(jì)量分量所對(duì)應(yīng)的特征即可。通過(guò)設(shè)置“相關(guān)統(tǒng)計(jì)量”在音樂(lè)信號(hào)上能夠有效地識(shí)別音頻節(jié)奏和音調(diào),可以作為音頻分類的特征。

此步驟結(jié)束,賦格創(chuàng)作中的旋律、節(jié)奏、調(diào)式、調(diào)性等一系列要素也就基本確定下來(lái)了。

(3)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練與預(yù)測(cè)

從音頻數(shù)據(jù)庫(kù)中隨機(jī)挑選一組音頻序列,則音頻波形序列聯(lián)合概率x = {x1; : : : ; xT}可以分解成如下條件概率分布的序列積:

由此每任意一個(gè)音頻樣本xt都依賴其前序所有步驟產(chǎn)生的樣本。條件概率分布由若干卷積層進(jìn)行建模。該網(wǎng)絡(luò)中沒(méi)有底采樣層,模型的output與input具有相同的時(shí)間維度。模型使用有限項(xiàng)離散概率分布的梯度對(duì)數(shù)歸一化softmax層輸出一個(gè)xt上的類別分布,使用最大對(duì)數(shù)似然方法對(duì)參數(shù)進(jìn)行優(yōu)化。然后在驗(yàn)證數(shù)據(jù)集上對(duì)超參數(shù)進(jìn)行優(yōu)化,可以測(cè)定模型過(guò)擬合或者欠擬合,從而調(diào)整參數(shù)。

在訓(xùn)練階段,由于標(biāo)定音頻序列數(shù)據(jù)x的所有時(shí)間步驟都是已知的,因此將全部時(shí)間步驟的條件概率預(yù)測(cè)并行處理。在推斷階段,預(yù)測(cè)結(jié)果是串行的:每一個(gè)預(yù)測(cè)出的樣本都被傳回網(wǎng)絡(luò)用于預(yù)測(cè)下一個(gè)樣本。因?yàn)樵家纛l通常保存為16位整數(shù)序列對(duì)應(yīng)每個(gè)時(shí)間步驟的個(gè)值,針對(duì)每個(gè)時(shí)間步驟的所有可能值,softmax層將需要輸出65536個(gè)概率,為了更容易處理,我們先對(duì)數(shù)據(jù)實(shí)施一個(gè)μ律壓擴(kuò)變換,然后量化成256個(gè)可能值:

這里-1< xt< 1 并且μ = 255。與簡(jiǎn)單的線性量化相比,這個(gè)非線性量化處理可以對(duì)數(shù)據(jù)進(jìn)行更好的重構(gòu),特別是對(duì)于音頻數(shù)據(jù)重構(gòu)后的信號(hào),聽(tīng)起來(lái)非常接近原始信號(hào)。

給定一個(gè)額外輸入h,可以對(duì)這個(gè)給定輸入進(jìn)行條件分布建模,這時(shí)公式①就變成了:

基于額外的特征變量進(jìn)行條件建模,我們可以引導(dǎo)模型產(chǎn)生有期望特點(diǎn)的音頻。基于賦格結(jié)構(gòu)特征建立一個(gè)變量序列{h1,h2,...ht},通過(guò)把賦格特征作為額外的條件輸入給模型,我們可以在模型中選擇符合特定條件的信號(hào)進(jìn)行輸出(符合賦格結(jié)構(gòu)風(fēng)格的音頻)。

循環(huán)以上流程,直到模型曲式結(jié)構(gòu)符合賦格特征相似度的閾值滿足設(shè)定為止,訓(xùn)練完畢。

此步驟完成,可以使賦格曲的結(jié)構(gòu)與旋律、節(jié)奏、調(diào)式、調(diào)性等要素有機(jī)結(jié)合,在神經(jīng)網(wǎng)絡(luò)的模型訓(xùn)練與預(yù)測(cè)下,實(shí)現(xiàn)較為優(yōu)化的組合與配置。

(4)內(nèi)核平滑

通過(guò)前述LSTM模型分類訓(xùn)練得到一組音頻序列(L1,L2,…,Ln)。該音頻序列具備了賦格曲式結(jié)構(gòu)的特征,但是序列是離散的。需要進(jìn)行平滑拼接的音頻處理工作,采用內(nèi)核平滑拼接法。內(nèi)核平滑即計(jì)算局部平均:對(duì)于每一個(gè)新的數(shù)據(jù)來(lái)說(shuō),用與其特征值接近的訓(xùn)練數(shù)據(jù)點(diǎn)求平均值來(lái)對(duì)其目標(biāo)變量建模。設(shè)置寬參數(shù),是用來(lái)控制局部平均的濾波窗口大小。內(nèi)核平滑設(shè)置的窗寬參數(shù)取值不同所產(chǎn)生的效果也不同。窗寬值較大時(shí),幾乎是用所有訓(xùn)練數(shù)據(jù)的平均值來(lái)預(yù)測(cè)測(cè)試集里每個(gè)數(shù)據(jù)點(diǎn)的目標(biāo)值。這導(dǎo)致模型很平坦,對(duì)訓(xùn)練數(shù)據(jù)分布的明顯趨勢(shì)欠擬合(under-fit)。窗寬值過(guò)小時(shí),每次預(yù)測(cè)只用到了待測(cè)數(shù)據(jù)點(diǎn)周圍一兩個(gè)訓(xùn)練數(shù)據(jù)。因此,LSTM音頻模型把訓(xùn)練數(shù)據(jù)點(diǎn)的起伏波動(dòng)反映出來(lái)。這種疑似擬合噪音數(shù)據(jù)而非真實(shí)信號(hào)的現(xiàn)象被稱為過(guò)擬合(over-fitting)。我們的理想情況是選取合適的窗寬參數(shù),處于一個(gè)平衡狀態(tài):既不欠擬合,也不過(guò)擬合。使得內(nèi)核平滑后的曲式呈現(xiàn)自然而不突兀,所以平滑處理的結(jié)果直接影響到生成模型及最終得到的音樂(lè)質(zhì)量。

在賦格曲中,主題陳述結(jié)束后或答題結(jié)束回返主題時(shí)的小結(jié)尾,主調(diào)與屬調(diào)的切換是否過(guò)渡自然;在每個(gè)間插段結(jié)束時(shí),與后面新調(diào)性主題的連接,轉(zhuǎn)調(diào)是否自然;還有每一個(gè)緊接段等是否能夠按照訓(xùn)練模型的設(shè)計(jì)做到“逐漸緊縮”,這都是我們?cè)诖擞?xùn)練中需要進(jìn)行無(wú)數(shù)次嘗試和聆聽(tīng)去解決的問(wèn)題。假如再?gòu)?fù)雜一點(diǎn),主題本身就包含轉(zhuǎn)調(diào),是否又該建構(gòu)更多的訓(xùn)練模型和規(guī)則呢?這也許不是廖廖幾千字就可以論述清楚的大課題了。

上面的算法,使用的是Google發(fā)布的Tensor Flow工具包,在Python語(yǔ)言和GPU環(huán)境下實(shí)現(xiàn)提出的RNN網(wǎng)絡(luò)算法,實(shí)現(xiàn)自動(dòng)作曲,并驗(yàn)證了其在樂(lè)譜生成領(lǐng)域具有出色的表現(xiàn),但因模型構(gòu)建、訓(xùn)練與預(yù)測(cè),涉及到的樂(lè)曲數(shù)量之多,作曲規(guī)則之多,難度之大,還未能生成一首完全滿意的賦格成品,僅呈現(xiàn)給大家一個(gè)實(shí)現(xiàn)賦格作曲的設(shè)想而已。

三、結(jié)語(yǔ)

筆者以賦格創(chuàng)作為目標(biāo),以音樂(lè)音頻為操作對(duì)象,在AI作曲方面進(jìn)行了設(shè)想和嘗試。最終期待實(shí)現(xiàn)的結(jié)果是,借鑒數(shù)字信號(hào)采樣處理手段,對(duì)音頻信號(hào)進(jìn)行采樣,以“相關(guān)統(tǒng)計(jì)量”作為特征評(píng)價(jià)度量值,將音頻文件拆分為相關(guān)序列特性的采樣片段序列,并以長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練模型進(jìn)行生成訓(xùn)練,通過(guò)機(jī)器學(xué)習(xí)生成的音樂(lè)序列,將離散序列平滑拼接為完整的賦格結(jié)構(gòu)音頻,實(shí)現(xiàn)AI賦格創(chuàng)作。

作為音樂(lè)學(xué)與計(jì)算機(jī)科學(xué)相結(jié)合的交叉學(xué)科研究,利用人工智能技術(shù)進(jìn)行作曲,需要研究者兼?zhèn)鋬蓚€(gè)學(xué)科的知識(shí)與技能,具有一定的難度和創(chuàng)新性,但受本人知識(shí)、水平的限制,該設(shè)想的操作難度較大,目前只停留在初級(jí)研究階段,因AI技術(shù)與賦格創(chuàng)作對(duì)接的復(fù)雜性,筆者還未能制作完成本文設(shè)想的“賦格”作品。文中關(guān)于人工智能作曲的描述和設(shè)想,可能存在諸多不合理之處,此文只想起到“拋磚引玉”之功效,特別是“IndRNN循環(huán)神經(jīng)網(wǎng)絡(luò)”的具體運(yùn)用,是目前業(yè)界較新的提法,有待于作者以及廣大業(yè)內(nèi)專家同行們繼續(xù)探索、討論與實(shí)踐!

猜你喜歡
人工智能技術(shù)人工智能創(chuàng)作
創(chuàng)作之星
創(chuàng)作(2020年3期)2020-06-28 05:52:44
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
《一墻之隔》創(chuàng)作談
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
人工智能技術(shù)在智能建筑中的應(yīng)用
考試周刊(2016年29期)2016-05-28 09:54:07
人工智能技術(shù)在電氣自動(dòng)化控制中的應(yīng)用思路
科技視界(2016年10期)2016-04-26 11:31:20
智能技術(shù)在電氣自動(dòng)化控制中的應(yīng)用
智能技術(shù)在電氣自動(dòng)化方面的應(yīng)用分析
主站蜘蛛池模板: 重口调教一区二区视频| 欧美在线视频不卡第一页| 国产99在线| 91po国产在线精品免费观看| 成年午夜精品久久精品| 国产精品性| 伊人丁香五月天久久综合 | 亚洲视频四区| 丁香婷婷激情综合激情| 日本不卡在线视频| 国产在线97| 国产精品视频猛进猛出| 无码专区国产精品第一页| 国产精品短篇二区| 日韩亚洲高清一区二区| 香蕉视频国产精品人| 久久久无码人妻精品无码| 亚洲福利视频一区二区| 久久精品中文字幕免费| 女人18毛片一级毛片在线| 欧美精品xx| 中文字幕永久在线看| 精品少妇人妻一区二区| 一级毛片免费不卡在线视频| 国产精品成人第一区| 91精选国产大片| 欧美人在线一区二区三区| AV网站中文| 成人另类稀缺在线观看| 久青草免费在线视频| 久久一级电影| 国产成人av大片在线播放| 国产人免费人成免费视频| 精品久久国产综合精麻豆| 毛片基地美国正在播放亚洲 | 亚洲视屏在线观看| 亚洲专区一区二区在线观看| 亚洲天堂视频在线免费观看| 91色爱欧美精品www| 国产制服丝袜无码视频| 最新亚洲人成无码网站欣赏网| 不卡国产视频第一页| 欧美一区国产| 99久久国产综合精品2023| 国产精品无码翘臀在线看纯欲| 国产福利一区视频| 久久成人免费| 久久这里只有精品国产99| 国产精品区视频中文字幕| 老熟妇喷水一区二区三区| 三上悠亚在线精品二区| 亚洲综合色婷婷中文字幕| 新SSS无码手机在线观看| 毛片a级毛片免费观看免下载| 精品国产成人三级在线观看| 婷婷色丁香综合激情| 国产经典三级在线| 婷婷色丁香综合激情| 国产主播福利在线观看| 国产一级无码不卡视频| 狠狠色噜噜狠狠狠狠奇米777| 免费人成又黄又爽的视频网站| 57pao国产成视频免费播放| 日韩精品视频久久| 国产精品亚洲欧美日韩久久| 成年免费在线观看| 亚洲福利视频一区二区| 四虎国产永久在线观看| 伊人中文网| 五月婷婷亚洲综合| 欧美精品亚洲精品日韩专区va| 国产日韩欧美一区二区三区在线| 一本无码在线观看| 婷婷激情亚洲| 亚州AV秘 一区二区三区| 精品久久久久久久久久久| 欧美日韩国产在线人| 精品三级在线| 国产精品福利导航| 国产69精品久久| 久久青草免费91线频观看不卡| 国产一区二区丝袜高跟鞋|