AlphaGo 在圍棋上戰勝李世乭後,人工智慧的下一個目標會是同為「有限元素組合創作」的音樂嗎?

但是音樂涉及版權、市場、音樂人的飯碗,實質性的觸及了巨大的利益,再加上人類的自尊,可能會有抵觸


終於有人來說音樂了。

我想從兩個方面來談談這個問題,一個是計算機對於音樂的理解,一個是計算機通過學習來進行音樂創作。

首先是對於音樂的理解,

把神經網路應用在音樂上其實並不是一個非常新的話題,很早以前開始,在音頻檢索領域,人們就嘗試用神經網路給各種各樣的音樂元素(和弦,基頻等等)建模,但是和語音識別一樣,受限於計算機的運算能力,一直沒有辦法取得突破性的進展,在相當長的一段時間裡人們一直還是在調參數和傅里葉變換中來回折騰。直到最近開始,隨著計算機運算能力的不斷提高,人們開始重新意識到深度學習在音樂上的應用。

大約兩年前的時候,一位研究Deep Learning的博士生來我們組實習,利用深度學習的方法,在完全基於音樂音頻信號的基礎上訓練了我們曲庫里的6000萬首歌,在沒有任何人為標籤和協通濾波的輔助下,取得了相當驚人的效果。

我們知道,一般做歌曲推薦的時候,我們通常依賴於協同濾波(Collaborative Filtering),也就是我們假設聽的歌曲和聽的人之間有很高的重合度。或者更直接而naive的方法就是打標籤,給歌曲打上一些諸如曲風,場景,情緒一類的語義化標籤。但是這兩者都有不可避免的問題,前者會有嚴重的長尾效應,沒人聽過的歌曲永遠沒人聽,越是流行的歌曲被推薦的幾率越高;而後者,如果標籤質量夠高自然沒什麼問題,但是這免不了要耗費巨大的人力物力來手動標註(比如Pandora),也並不是每個公司都有興趣這麼做的,你也無法始終保持標籤的質量。

但是經過深度學習後的計算機不是這麼想問題的,在高維空間里,每一首歌對於計算機來說就是一個個向量,接下來,你用最簡單的聚類也好,建立二叉樹模型也好。在聽覺上相似的歌曲,一定會在高維空間里找到彼此。

在他的報告裡面有一些很有意思的現象,比如:音樂性上特別有特點的兩首歌(比如都有小提琴和Dubstep的組合)會被歸類到一起,而所有的華語歌曲則歸到了一個大類里。我曾經也做過一些嘗試,比如把一位歌手同一時期的不同歌曲扔到模型里找相似,得到的結果完全不一樣,所以你就可以很容易看到歌手在不同時期的變化和成長。

隨手貼兩張截圖:圖一是卷積網路的框架,圖二是第一層網路的濾波器。有興趣的同學可以去看一下他針對當時的研究寫的blog:Recommending music on Spotify with deep learning。可能對於在其他研究領域也有啟發作用。

寫到這裡順便提一下,各位可以猜測一下這位實習生最後去了哪裡?沒錯,他也加入了AlphaGo的發明者所在的公司 ——Google Deepmind

接下來我們來談談人工智慧在音樂創作上的研究

題主說音樂是一個有限元素的組合創作。 @阿魯卡多 說音樂是無限元素的組合創作。我的理解是,如果單純的認為音樂是音符的組合而認為他是有限的,那顯然是非常膚淺的。對於音符組合的模仿作曲其實早在上個世紀60年代就開始了 (Daivd Cope著名的EMI實驗,通過統計音符概率來模仿古典作曲家進行創作),再進一點的更多所謂的先鋒實驗創作,演算法作曲等等也是不勝枚舉。

但是,因為音樂在配器,編曲,強弱等等其中的變化是無窮多種的。相同的旋律線,在不同的演繹下是兩首完全不同的音樂。然而。。。。。。。。

自從我們全面進入數字音樂時代之後,我們就應該清楚地意識到,所有的音樂本質上都是二進位里的0和1,而對於計算機來說,所有的0和1的組合,本質上都是有限的。因為,人的聽力範圍是有限的。

上圖是在語音和音樂領域常用到的語譜圖(Spectorgram).我們把一首歌的X軸當成時間,Y軸當成短時頻率,顏色的深淺表示頻率分布上的能量大小。以傳統44100Hz為例的採樣率來看,每一秒鐘在時間上是44100個點。那麼一首5分鐘的歌曲就有接近1300萬個採樣點,每個點又根據採樣精度有多種可能。但是人耳真正能感知的頻率上限和聲音長度都是有限的(24KHz, 0.1s),所以在經過短時傅里葉變換和加窗之後,剩下的數據點其實遠遠小於原採樣點。無論音色再怎麼豐富多變,情感再怎麼即興,當採樣點的精度大於人耳可分辨度的時候,那麼音頻信號的組合,確實是有限的。只不過這個上限非常之大。

寫到這裡似乎有一點令人沮喪,其實這也是我最近在看了阿爾法狗和小李對決之後一直在思考的問題,人類的音樂創作能力是不是真的在某一天會被機器所取代?我認為至少在短時間內暫時不會。畢竟從組合的角度來講音頻信號能有的組合還是遠遠大於圍棋的決策樹的,而創作又不是一件有規則的事情,所以很難再沒有範式的情況下自主學習。我在另一個問題 數字音頻行業目前還有哪些發展前景?也提到了:當前數字音頻最大的兩個問題本質上可能還是要靠深度學習來解決,信號分離和物理建模。前者是將來自不同音軌的混合信號完全分離出來,後者是完全用數字手段來模擬聲學信號,一旦這兩個問題解決了,可能AI可以和人類一樣創作的日子也就不那麼遠了。

從這個意義上來講,在短時間內比較靠譜的一個AI之於音樂的應用,我認為還是在編曲上。在我看來,很多工業化成熟的編曲,無論歐美,日韓,港台還是內地,是有規則在裡面的。無論你是多麼複雜的配器,如果將音色的信號級變化轉換成midi和音軌作為神經網路的輸入信號,那將大大降低機器學習的複雜度。當然,這並不算是創新,只是讓流水線上的編曲工作者們幹活輕鬆一點罷了(打個比方,沒有不尊敬的意思)。順便說句題外話,周杰倫給TFBoys寫的《剩下的盛夏》為什麼那麼周氏風格,我認為編曲其實佔了很大的一塊比重,而那種模仿周董的唱腔,也可以被認為是編曲的一部分吧 :)。

總結一下,如果我們跳出思維定式,而真正從計算機的角度來看待這個問題。其實總有一天,計算機會擁有和人類一樣理解音樂和創作音樂的能力。然而,正如有一位朋友的回答里提到的那樣,音樂是一種純精神層面的東西,你的目標不是戰勝對手,而是創作出有藝術價值的東西,讓大家產生情感共鳴。所以我希望看到的,不是人工智慧一味的模仿時下流行歌手進行創作,一天自動生成200萬首神曲。而是在擁有理解和創作能力之後,能夠真正的做出一些有創造性的東西。這個界限很難定義,也許在它到來之前永遠不會有一個正確答案。也許這個道理也同樣適用於其他創作領域比如繪畫,小說,電影等。

只是希望它到來的那一天,我們還是能夠用坦然的心態面對它。「給歲月以文明,而不是給文明以歲月」。


謝 @Eidosper邀……

我預計下一個目標肯定不僅僅只是音樂。音樂只是人工智慧進軍的領域中的一個小分支罷了。然而我並不會抵觸,相反十分會期待AI能對音樂創作產生什麼影響。

首先糾正下題主,音樂並不是「有限元素」的組合,而是無限元素的組合。舉兩個例子:

1)4/4拍下,僅僅考慮一個小節里全由16分音符和16分休止符可以組成的節奏型,就有2^{16} 那麼多。而如果用一個八度的C自然大調的音符在這麼多節奏型里隨機組成旋律的話,可能性是9^{16}=3^{32}。如果考慮到這其中有長音符有短音符還有連音線的話,那麼一共有大約sum_{i=1}^{16}{9^{i}C_{16-1}^{i-1} } approx 9	imes 10^{15}種情況。可能有人覺得這個數目不大,然而這還僅僅只是一個八度下、僅僅是C大調的,基礎音型為16分音符的一個小節里的旋律情況。考慮到音色、速度、三連音、奇數拍、更多的調性、離調以及微分音等等等等。音樂的可能性就算不是無窮盡,其實也差不多了。

其次還是要反對一下所謂「人類有情感,機器無法理解情感所以無法作曲」之類的說法。據我所知,IRCAM很久之前就已經作出了根據人類的情感一鍵生成ambient sound的程序了,比如agitation,pessimistic,neutral等等。雖然人類對不同的音樂的好惡和感受不一樣,然而人類的反應卻有一些相似性,比如聽到百老匯Big band,就會想要翩翩起舞;聽到《辛德勒的名單》的主題,大多數人也會覺得傷感;聽到漢斯季末為《蝙蝠俠》創作的配樂,大多數人也會覺得熱血澎湃;聽到《Psycho》的配樂,大多數人也會覺得不舒服。在大多數應用音樂領域,人類所起到的作用和翻譯差不多,或將畫面翻譯成音樂,或將無法表達的情感用音樂表達出來。這也是電影配樂行業存在的原因,即用音樂來表達人類語言之外的「情感」。這些情感卻是可以被公式化和模板化的,這也是為什麼音樂製作,電影配樂產業可以分工合作形成流水線作業。而只要是能被總結,能公式化和模板化的東西,AI一定是可以勝任的。比如之前在另一個答案(為什麼科技的發展沒有使電子樂器超越傳統樂器的地位? - Molho 的回答)中提到的「管弦樂器音色隱喻」就是一種非常經驗化的東西,要表現孤獨,可以用大混響加solo;要情緒低沉,可以在largo下使用向下的旋律或者是大跳下行;要表現激動,可以在presto的基礎上加入大量的管樂,連續快速上行的弦樂以及打擊樂等等。而且不僅僅是配器,和聲、對位中也有很多的可以被總結成經驗和被公式化的知識。所以,要讓AI創作出「富有感情」的音樂,並不是一件非常困難的事情。我覺得可以預見的是,在將來某一天,哪怕是學了20年音樂的音樂專業博士,也難以分辨出一段音樂是由「AI」創作的還是由「人類」創作的。

上學期做過一個非常粗糙的generative music即音樂自動生成器的小軟體,演算法是非常簡陋的完全probability based。然而就是這麼粗糙的東西,只要音色合適,節奏合適,音階合適,也還是能模仿出一定風格的特徵的。所以有理由相信,只要完善演算法,給予AI足夠多的數據,並且能得到足夠多的評價,AI肯定是可以創作出優秀的樂曲的。

再次,要反對一下「AI超越人類」的論調。「AI超越人類」只適用於規則明確,且以結果的勝負(或者評分)為導向的領域,比如各種棋類。對於藝術,人類至今沒有統一論調,不同的音樂風格之間是沒有高下之分的,更不存在「超越」一說。就像攝影對古典繪畫的衝擊一樣,AI對音樂產業的衝擊肯定是有的,但是卻不會摧毀這個行業,而是促使這個行業轉型。我們可以說,在未來,AI在某個音樂的技術領域(比如自動檢查平五平八→_→)上超越了人類,然而卻不能說AI超越了人類。舉個例子:雖然不同的音樂家、作曲家技法和技術之間有高下,我們說「周杰倫的鋼琴水平不如朗朗」,是因為鋼琴有一套成熟的評價體系,然而類似「朗朗超越了周杰倫」,或者是「巴赫(可以換成貝多芬、莫扎特、勛伯格、約翰凱奇)是最偉大的作曲家」這樣的論調通常是不靠譜的。每個人都有其獨特的風格和氣質,這種氣質可以被AI模仿和被學習,然而不同個體之間的特質差異並不會存在一個一刀切的標準來判定其好壞,這個也是藝術和工業最大的區別。我們人類尚且無法超越人類,遑論AI?

最後,要問我怎麼看AI對音樂的衝擊。我覺得很有可能就像工業革命對手工業者的衝擊一樣。音樂作為一種展現個人氣質的藝術,每個音樂人提供的服務都是略有差異的,也算壟斷競爭的一種了。然而就像優秀的手藝人並沒有隨著機器的出現而消亡,他們的手工製品由於社會必要勞動時間長,供給量減少,價格反而有所上升一樣。作曲也是一樣,在AI的幫助下,未來應該每個人都有能夠作曲編曲的能力,即使什麼也不懂,也能自己做一些曲子。然而最優秀的那一批音樂人應該就像古老的手藝人一樣,依靠提供差異化產品,繼續獲得高額回報。


就算人工智慧可以創作出不錯的音樂作品,充其量也只是為這個世界增添一個作曲家而已,有什麼好緊張或者遺憾的?


上次討論機器取代鋼琴家的事情還沒完呢,這又來了。

說到底,其實是個哲學問題。

首先,別說什麼AI搶音樂人飯碗啊自尊什麼的,如果科技真的實現了,這些都是笑話。

在利益驅動的人類面前,這些東西根本擋不住。

如果你是唱片公司老闆,花個十來萬買一套軟體能分分鐘取代周杰倫,保持每日100首創作,質量還超高,那何必還找創作者幾萬一首收歌呢。

商業領域上,沒有人會和錢過不去。

人類的自尊,在科技面前也是笑話。AI只要能在武力上戰勝人類,毀滅地球什麼的輕而易舉。

但最大的問題是,到了藝術領域,這一切都不成立。

藝術是個純精神層面的東西,沒有人類的思維,就不會有藝術的存在。人類的思維決定了藝術評判標準。人類說什麼是好,什麼就是好。

這裡是和圍棋最大的不同。圍棋的目標永遠是贏,分出高下就是看誰能贏誰。

而藝術呢?你告訴我?這是所有藝術家窮極一生都未必能找到的答案。

即使全世界的AI都通過某種演算法認定了某個作品好,只要人類覺得不好,就沒有意義。

AI一切的運算,在被人類否定後,無非只是AI的自娛自樂而已。藝術價值為0。

再提一點,AI在作曲領域的應用,其實早不是新鮮事。音樂學院一直有各種天馬行空的演算法作曲研究,有興趣的可以自行了解。聰明的程序員干演算法作曲的,多了去了。然而他們絕對不會問這個問題。

當然,個人也認為,以現在的國內流行樂的環境來看,AI在一定範圍內輔助創作某些商業性質的作品,是較為可行的。比如用「孤獨」「生命」「自由「迷惘」等高頻關鍵詞隨機排序,幫助汪峰寫作歌詞之類的。

但說到底,也要作為人類的汪峰自己做出決定,覺得這樣的歌是好的,願意發布,才行啊。


有限元組合的那玩意不是這個么?

把你救出來可費了老勁了。


用 AI 複製諸如 TF BOYS 的那種幕後音樂創作水平,

這個我覺得十年內就能了。

但是你用 AI 複製一個 Miles Davis 給我試試?

我不敢斷言這一百年能不能做到。

------------------------------------

我當然不是因為搭配的可能性有上億種,而質疑人工智慧「運算能力」,

人工智慧能否有一種「篩選能力」選出這上億種中能被人類審美觀點接受的幾種,

這個就需要大量的「學習能力」去尋找規律。

多思考一下人工智慧能否做到像人類那樣「篩選」吧,

(包括每個音符的力度、表情等演奏方式)

這才是人工智慧在音樂領域上的難點,

這個和完全複製圍棋的下期思路是有區別的。

------------------------------------

題主說的「畢竟音樂也是有限元素的組合創作」,

其實也就是 TF 他們幕後的創作形式,

和聲上:

基本上 I-vi-IV-V 或者 IV-V-iii-vi 這些套路的搭配;

旋律上:

他們有用過啥和弦外音嗎?

所以基本上 8 個音符任意搭配,聽起來都很「好聽」。

很「沒錯」啊~

節奏上:

他們有用過除了三拍和四拍以外的節奏型嗎?

或者一首歌出現兩種以上節奏型混用嗎?

打擊樂過門:

你們聽說過 LOGIC PRO X 的 DRUMMER 嗎?

已經實現了,AI 能做出來的複雜程度已經超過 TF boys 團隊的所有「努力」程度了;

器樂:

你們聽說過軟音源嗎?

編曲:

同上,另外由於和弦沒有任何難度或者創新點,基本上靠採樣和簡易的 AI 就能完全複製了;

玩過一個 APP 叫做 CHordbot 嗎?

比 TF boys 的編曲複雜多了,App 演算法生成的。

另外,他們的歌裡面的器樂基本上沒啥「力度」或者「延音」等技巧可言。

人聲:

聽說過 Auto Tune 嗎?

就他們目前唱歌而言,基本上對著麥克風「念一遍歌詞」就夠了;

接下來 AI 把他們的音高修到正確的 TUNE 沒有任何問題。

嗯,你要情感?

AI 幫你加顫音,加一點滑音,對,就像 B 站上做的金坷垃人力 Vocal 一模一樣~~

採樣更豐富點,你就分不出是誰唱的了。

反正「愛的供養」就這麼來的,根本不用唱准;

---------------------------------------------------------------

剛剛我說了,對人工智慧來說,難點是「篩選能力」,

在有限組合裡面,他們能迅速發現規律寫出好歌,

各個音符上的技法很低的情況下,

和弦走向也幾乎是套路化的情況下,

他們能學會,摸清規律並且迅速應用的時間極其短。

對於這種沒有太大演奏難度的流水化作品來說,

AI 一開始幾天也許出來作品有點碰壁,

但是幾天後完全比 TF Boys 們優秀,

易如反掌。

---------------------------------------------------------------

所以,有什麼難的嗎?

當然有!

你去採樣 Davis 的《So What》裡面的音源試試?

光他的鼓,你要採樣半年,搞幾百個力度吧?

嗯,是可以實現,

問題是 AI 合成出來的時候,

你要在它第一次出來認為是「優秀」的作品中找出實際上是人類覺得優秀的作品吧?

在爵士樂這種完全沒有套路,

不是簡單的 I - IV - V - I 這種套路出來的,

每個音符實現方案數量是『青春修鍊手冊』的幾百倍甚至幾萬倍的情況下,

你要教會 AI 篩選出人類覺得動聽的方案,

尋找規律,

這個時間可不是『青春修鍊手冊』的用時了。

----------------------------------------------------------------------

再簡化一下:

好比機器解鎖一個 5 位數 10 進位的密碼,可能只要幾天,

你教會它人類經常用的幾個密碼,它也許下一次優先選擇你教它的密碼搭配,

幾秒它就能解鎖了。

但是爵士樂好比一個 30 位數,30 進位的密碼,

而在這裡,人類經常用的密碼規律可能連人類都還沒摸透,

它要解鎖這個密碼,難度有多大?

不知道,反正比前者大很多數量級了。

------------------------------------------------------------------

所以為啥這麼多年了,吉他都還是實錄,

爵士樂(Smooth 之類的滾開)的爵士鼓,基本不能用軟音源合成?

爵士樂節奏不是動次打次,經常二拍變重,三拍切分啥的,這些都是瞬間發生,而且沒有套路可言;

目前人工智慧還遠遠無法搞定這些東西,但是給一段流行樂人聲出個還不太成熟的伴奏已經能實現了。

Logic Pro X 裡面就有一個打得比不少國內所謂鼓王牛逼得多的虛擬鼓手了。

情懷一點說還是方案數量和篩選機制,

嗯,AI 去研究一下中古調式,

然後如果還有那個天煞的弦樂手或者中東樂器用了個非十二平均律的音階……

嗯,那可不是簡單一首歌 12 個音符組合了……

人聲更不用說了,別說複製一個 Billie Holiday 了,

複製一個 Celine Dion……

都比 TF boys 的聲音難吧?

以上都不能不考慮啊……

一百年內,我但願能看到 AI 能做出這種音樂……

但是問題又來了……

萬一這個世界又出一個比 Miles 更變態的音樂人呢?

也許不久的未來:

TF boys 們年年有層出不窮,

AI 複製他們簡直就像生成隨機數一樣簡單……

初音們取代了這幫快餐音樂人類歌手的地位~~

但是……有一天人類忽然要複製 Miles……

AI 有了自己的意識,

然後這時候像《猩球崛起》的凱撒一樣生成了一段語音:

「No!」


我覺得,關於音樂,如果能找到一個無限計算資源下的 cost function 就能妥妥地發 nature 了

畢竟連續 3000k 場圖靈測試太難實現了,這也是 unsupervised learning 的困難所在


其實我挺期待人工智慧在音樂上的應用的。

科技的發展從來都是為藝術帶來更多的可能性,而不是消滅藝術。


不是,你們都不關注新聞的嗎?

下一步「阿爾法狗」何去何從

本報記者 劉 霞 綜合外電

谷歌旗下的「阿爾法狗」(AlphaGo)最終以4∶1戰勝韓國圍棋九段棋手李世石。繼跳棋、象棋之後,人工智慧在挑戰人類的清單上,再添濃墨重彩一筆。下一步「阿爾法狗」又何去何從呢?

對抗其他遊戲

「阿爾法狗」的通用方法中有幾個元素是專門為圍棋這項遊戲而設計的,這一方法或許可以用來解決與模式識別、制定計劃和做出決策有關的問題,但仍有其局限性。加拿大蒙特利爾大學計算機科學家尤舒亞·本希奧解釋說:「它的確令人印象深刻,但仍然面臨諸多挑戰。」

儘管去年10月份,「阿爾法狗」擊敗了歐洲圍棋冠軍樊麾,但李世石此前預測,他將以絕對優勢贏得這次比賽,不過,現實給了他沉重的一擊,他也為自己的失敗深感震驚。

主要研究人工智慧發展趨勢的美國亞利桑那州州立大學社會科學家邁爾斯·布倫代奇認為,「阿爾法狗」的進步很大程度上要歸功於一個事實:下棋次數越多,它表現得越好。實際上研究人員在「阿爾法狗」演算法中搭建了兩套模仿人類思維方式的深度神經網路。DeepMind團隊先讓「阿爾法狗」對人類比賽出現的3000萬種圍棋方位進行研究,然後通過自己不斷地下棋來提高技能,這一技術被稱為「增強學習」。接著,「深度思維」將「阿爾法狗」識別成功圍棋布局的能力同「預測搜索」技術結合在一起,利用「預測搜索」技術,「阿爾法狗」會評估進行某些移動可能會產生的後果,並在此基礎上,決定下一步如何走。

DeepMind已經攻下了大部分棋盤類遊戲的「城池」,但機器仍然無法在多人參與的撲克牌遊戲中打敗人類。目前,該團隊已經表達了對抗具有科幻性質的戰略性遊戲《星際爭霸》的興趣。

教主你顫抖吧!因為阿爾法狗是不需要上廁所的!


AI 要做成品曲會非常難。

首先,音樂為聲音的編織,所以需要去採樣,這種水平一百年後估計還是人完成的。

其次,音樂沒有簡單到是音符的排列不同組合而成。就說流行音樂,為什麼許多歌手的歌曲很容易就區分。除了人聲的貢獻,各個歌手的編排也不會是一樣的。Ballad人們可以寫成小蘋果,也可以寫成My Heart Will Go On etc.

人工智慧大概的作用是assist,做不了與人共鳴的生活經驗作品。


其實做出一首能夠流行的音樂並不難。但讓一首音樂流行起來是另一件事。
並不需要人工智慧做太多創新工作,採樣好60~80年代的美國黑人音樂,揉在一起扔出來花大量錢去推,首首必紅。
棋類算是game,有game就有解。
音樂其實略有差別,有敘事的表達,有喚醒生物共鳴的節奏,算是兩個維度的東西。節奏對於計算機是很容易掌握的,因為和數學相關。表達會難些,畢竟你得知道要表達些什麼。這可不是現在階段的人工智慧敢去觸及的。

尋找最優算是現在人工智慧比較擅長做的事情。做突破和創新是現在做不到的。
比如這個課題,讓人工智慧發明一種和圍棋不同的新黑白棋遊戲。現有的技術就基本做不到了。

人工智慧還是摻乎點有用的事兒為好,音樂這麼好玩的事情,還是留一些給人們自己開心吧。

----------------

可能有人誤解我說的把老歌揉一揉的意思,舉個例子:

揉老歌的最新案例,菲董,水果姐和Calvin Harris的新歌Feels。整個底子是earth wind fire的Let"s groove。老實說,這歌比原曲沒才華多了。但是肯定會在排行榜上往前跑的……

視頻封面【猴姆獨家】水果美cry! Katy Perry助陣Calvin Harris強勢新單Feels超清mv大首播!youku.com視頻視頻封面Earth, Wind Fire - Let"s Groovebilibili.com視頻


音樂是無限元素的組合創作,題主您理解錯了。


讓AI來作曲,其實就是給它一些輸入:以前的名曲,讓它學習這些曲子,創造出同等標準下的好聽的曲子。看懂了么?最本質的問題在於,AI只會模仿前人的作品,一旦讓它來拓展自己的風格,它只能選擇擲骰子。扔出來是什麼風味就不得而知了。

這時候如果有一個人能指導者AI拓展自己風格的方向,效率肯定比現在高太多,不過這個點子也有很多年頭了,相信大家都玩過琶音器。


自動作曲的玩意早就有了。不過音樂創作和棋類遊戲有一些非常不同的地方:棋類遊戲是在單一的規則下尋找最優解;而音樂創作會涉及到廣泛的社會、文化背景。

所以比較容易實現的,大概是針對某種特定風格的音樂設計一種生成器。如果不這樣,就得把IBM那個能整合知識和人類嘴炮的Watson弄進來。。。


十音大濕已經答過了David cope的emmy系統寫出的賦格,十音大濕自稱寫不過這套系統。

並且,這套系統是十年前的玩意兒了…

以音高和力度作為兩個維度,這就是個128*128的棋盤。音符的狀態是有 保持 無,正好對應圍棋黑白無。所有的演算法,可以說大面上是通用的,細節部分可能還要改改。

這個問題似乎想要回答,得回答藝術的本質。我自己認為,判斷高級智能的一個可行條件就是看其是否產生了藝術。現在是人類的藝術,未必計算機不能產生自己的藝術,不過都扯遠了。

@Molho請大濕來答。

貼一下大濕當時給的網址

https://www.youtube.com/watch?v=Lt7fEchgFrU


今天人們大多數並不在乎音樂,她們在乎的是音樂所附著於其上的東西:可能是一部電影、一個遊戲、或者一個人(即音樂家)。音樂被充分 embodied 和 personified 了。

在這種情況下,AI 要作曲的一個前提是祂得先具有一個人們可以認受的肉身形象,或是可以摸得到,可以成爲 fetish 的實體存在。

因此,AI 作曲已經實現了,初音未來就是。所有參與其中的人類只是原始數據。

至於 David Cope 的嘗試,雖然有學術上的意義,但音樂上的意義不大。因爲蕭邦、莫扎特、巴赫的音樂已經死了。EMI 做的事情只不過是對文物進行高仿。


不會。

人寫音樂時,是體驗與創作的複合過程,一邊寫,一邊感受,形成正反饋迴路。

音樂的好壞是人的感受,計算機不能與人實時高效通信,也就不能高效地評價音樂,他的評估網路做不出來,失去方向。

除非人把對音樂的感受規律找出來了,轉換成計算機模型,AI就可以做出絕妙的音樂。

人只要認識自己,把事物準確描述出來,這事計算機就可以干。人會把美、情懷等自己沒搞清楚的事情神秘化,等搞清楚了神秘褪去,一切都是自然規律而已。


就說流行音樂。

如果有人告訴你,周杰倫本來就是個天才碼工。他那些歌其實都是他自己寫的AI軟體作曲,你能證偽嗎?

說句政治不正確的,美國現在多少大牌音樂人製作人是黑人,甚至是ghetto里混的那種黑人?這畫風跟AI怎麼都不搭啊。

AI下圍棋的目的是贏。贏就是贏,不喜歡也要承認。但是涉及到美感的東西就不一樣了。大家不喜歡,你就上不了B打頭的排行榜;專家不喜歡,你就上不了裝B的排行榜。


從商業價值上看是很可能的,但是,我們連音樂是什麼,藝術是什麼都不知道。。。


AI知道怎麼贏,但是不知道怎麼好聽。

實際上,現在的流行音樂的和聲套路都基本差不多,輸入一個慣用的和聲走向,定一個基本節奏,然後按照八小節原則,讓AI作麴生成五線譜簡單的很,以後創作者也許只要從大量的AI作曲中選一個自己認為不錯的就行了,然後自己加修飾,編曲,根據譜子配器混音。

古典音樂,爵士樂還做不到,因為比流行音樂複雜性高太多了,和聲走向也不是那麼簡單固定的。


推薦閱讀:

陳耀燁、時越、羋昱廷、唐韋星、周睿羊和 AlphaGo 的團體賽有哪些值得關注之處?
如何看待Master擊敗古力取得60勝?
如何看待Deepmind所釋出的Alphago自我對戰棋譜?
人工智慧能否打敗電競選手?
古力 & AlphaGo vs. 連笑 & AlphaGo 的配對賽有哪些值得注意之處?

TAG:音樂 | 人工智慧 | 圍棋 | AlphaGo |