計算機音樂是否通過機器學習等方法進行過作曲、演奏?

比如某個作曲家,我們讀他的譜子可以看出他的作曲風格,然後進行分類,然後利用學習到的東西進行創作? 又或者學習大量魯賓斯坦的演奏風格,然後對某一樂曲進行演奏之類? 純屬瞎想,有點好奇計算機音樂領域。


如果只是模仿某一位作曲家答案是毫無疑問可以的,最有名的是David Cope的系統,他早在幾十(或者十幾)年前就利用電腦創作了大量模仿作曲家的音樂。如果不是專業人士,很難聽出其中曲風的差別。最簡單的只要訓練音程之間轉換概率,然後用HMM或者其他模型產生音樂就可以產生相似的曲子。高級一點的可以涉及到robotic musicianship領域,就是音樂機器人。現在已經有了可以自己「創作」的機器人了,甚至是可以improvise, 比如jazz,這方面可以查一下Mason Bretan的研究。


https://www.jair.org/media/3908/live-3908-7454-jair.pdf

Fernández, J. D., Vico, F. (2013). AI methods in algorithmic composition: A comprehensive survey. Journal of Artificial Intelligence Research, 513-582.

這篇Survey寫的應該比較全面,各方面都有提及

樓上提到的David Cope的EMI (Experiments in Musical Intelligence) 沒記錯的話使用的是ATN(Augmented Transition Network),事實上應該只是將發現的樂句打亂以後重排。對於他的方法算不算自動作曲還是很有爭議的(ATN應該是等價於圖靈機的,我不覺得這能學習...)當然結果的確很贊(贊到不真實)

Edit: Wiggins對EMI的一頓狂噴http://yaxu.org/tmp/wiggins-cope.pdf

比較貨真價實的自動作曲的話首推Melomics的一堆東西,古典音樂的Iamus和流行音樂的Melomics109,用的應該是某種遺傳演算法,不過相關的資料不多....

學習演算法的話似乎真沒什麼好結果,主要是一個複雜的音樂實在太難Model(Yale的一個基於schenkerian analysis的語法挺有趣,不過個人覺得大概還是Neo-Riemannian Theory比較有前途...),一個實在沒什麼好的training data,尤其是Labeled data....外加因為自動作曲屬於人工創造力範圍,跟主流的機器學習圈的方法實在差的比較多,感興趣的不多....不過感覺幾個基於遞歸神經網路的演算法還是比較有前途的....

脫離了模仿既定風格的話幾個人工生命的研究挺有意思的...Monash一教授做的Eden非常有趣,可以一看http://www.csse.monash.edu.au/~jonmc/projects/eden/eden.html

腦子不是很清醒隨便扯一點....


其實巴赫就是一台機器,他把所有音符的組合都嘗試完後,就停機了。


現在實現了。。


推薦閱讀:

如何看待 2016 年 5 月 3 日 Python PEP8 風格的改動?
如何把宿舍裝扮成傳火祭祀場風格?
權志龍的MV風格怎麼樣?
為什麼很多藝人都說拍戲的時候要等,而且一等就是等很久?

TAG:音樂 | 風格 | 計算機 | 樂器 | 機器學習 |