中國基層編作曲從業人員是否可能被人工智慧取代?
眾所周知,為了迎合大眾群體的需求,『流水線音樂』在國內頗為流行。其中較多熱門歌曲從音樂性角度來看過於公式化(和弦走向,節奏型,riff,織體,配器,旋律hook等等等等),大量音樂人(並不是全部)與其說是『藝術家』,不如說是某種程度可以被自動化演算法代替的,操作音符的『技工』。於是問題來了,如果某科技公司與某些編作曲大牛合作出了一套可以匹配甚至超過市面上百分之六十作曲編曲混音作品質量的人工智慧演算法,那麼這些基層音樂人會被人工智慧替代而被迫失業嗎?消費者會不會為這些人工智慧編作曲買賬?p.s.特別是在如今明星經濟盛行,為明星編作曲的人影響力甚小的現狀下。
===========11/30添加================
如何判斷藝術家的藝術性?如果一個藝術家發明了一個前所未有的技法或者領域,後世前仆後繼地去學習他的成果和藝術哲學,直到世俗社會摘下其藝術性的光環而把該「藝術」劃為自己生活中的一部分時(商業化),它還能被稱得上「藝術」嗎?趁其為「工藝」,甚至「技藝」,甚至「技巧」會不會更為貼切些?如果在此基礎上進行假設(可商業化的「藝術」定義為「技術」,即藝術性可以被複制),以藝術性著稱的非基層音樂人群體是否也會在未來某一天也受到人工智慧的挑戰?謝謝了
=======補充===========
藝術家的靈感主要是根據其自身經歷在顱內通過某種隨機的排列組合達到其獨特性的。在演算法中,這個「自身經歷」可否被量化為函數的輸入參數,即「影像」或「從兒時到現在聽過的音樂」或「情感」,當然還有一些隨機的變數,例如「可能從中受啟發的工作環境」以及「體內的性激素水平」等。函數內的演算法則是通過給各種因子在一定值域里加權減權再計算獲得一定的「隨機性」,再把此計算得到的「隨機性」傳入生成樂曲的函數,保證最後的曲子的新穎程度。區別人類和機器的「創造力」可以以此方式進行量化嗎? 「從兒時到現在聽過的音樂(熟悉性)」和「情感(同理心,共情心)」是不是支持華語樂壇較為重要的因子之二?
只要對於風格有量化模型定義,編曲作曲的風格模仿並不是不可行,比如參考這條微博 微博正文 - 微博HTML5版 裡面提到的兩個利用深度學習做編曲風格轉換的項目 Magenta tensorflow/magenta 和披頭士風格 Listen to this AI-composed song in the style of The Beatles
不謝邀,看怎麼個標準了。
標準低的話:
實際上如果你手上有iPhone,打開GarageBand,然後使用新建項目並添加一個實時循環樂段,你就可以像皇上選妃子一樣自有選擇鼓貝斯吉他合聲器loop了,然後瞎JB組合在一起就能產生一個聽起來特他媽像回事兒的樂段:
說實話有時候我干小活兒不耐煩,就用這個東西打發客戶,而且成功率還挺高的。尤其蒙最近那幫喜歡中國有嘻哈的孫子不在話下。所以只要實現一個大概的演算法來調用和組合這個工具,替代不成問題。
再標準高點兒,旋律我不大行,但我曾經胡扯過如何訓練計算機自動生成爵士鼓節奏型,個人覺得還算貼譜:
鼓趙:Logic Pro X中的Drummer是怎麼生成的?
內容給你們貼過來:
謝邀,首先我批評一下題主,咱們工程師不是售前,不要最近流行什麼詞兒都往上扯,就像DSP的廣告平台一樣,今天是「大數據」明天又是「人工智慧」,最近又吹「深度學習」,十年不迭代的玩意兒,見天兒的改名號,不好。
而且說到機器學習,我真的(假裝)思考了一下。眾所周知,如果我們想讓計算機學習一位鼓手打鼓,我們就要設計目標函數,且學習樣例能夠無限貼近目標函數並使其收斂。任務T:演奏節奏型;性能標準P:即興演奏目標鼓手風格的節奏型;訓練經驗E:聽取真實鼓手的演奏。首先幸運的是,訓練樣例E是存在的,就是在DAW里的各位鼓手所輸出的節奏型:
且為各個鼓手進行了風格化分類,這樣我們的訓練樣例可以很好的表示實例分布。在實際操作中,我們可以讓這些鼓手通過MIDI觸發器(也就是電鼓)將演奏轉換為MIDI信號,MIDI信號根據軌道和力度可以將拍號內最小時值抽象為三維向量。這樣我們就可以以Loop為單位(如四小節)發送三維向量序列作為訓練樣例作為輸入;
其次,設計目標函數。目標函數是此次建模的核心內容,而且鼓這個東西有高容錯性,很多東西即興打出來和上次不一樣但也不算錯誤。這樣在制定目標函數的性能標準P的時候模稜兩可,直接導致我們在對特定樣例進行評分的時候缺乏統一的標準,而不是像下圍棋一樣有勝率的精確要求。所以我們只能簡化模型,幸運的是,我們可以通過爵士鼓通用的知識體系先抽象出一些基礎樣例。比如經典搖滾節奏型動次大次,我們把它抽象為底鼓演奏一三重拍、軍鼓演奏二四重拍、踩鑔演奏均勻的八分音符的一段Loop,再例如bossa nova風格的重音在Loop的1、3、7、11上,再又比如Funk風格經常用到軍鼓和丁丁鑔的paradiddle,都可以抽象成底鼓、軍鼓、踩鑔三軌的音符排列組合。那麼這樣我簡單抽象一下,我們用來評價一個節奏型是否貼合選擇的目標鼓手的目標函數可以抽象為:
V(b) = x1 + x2(Wtb平方-Wbb平方) + x3(Wts平方-Wbs平方)+x4(Wth平方-Wbh平方);這樣一個多項式。x2 x3 x4 是相對底鼓、軍鼓、踩鑔的權重,在括弧內是基本演奏風格和目標鼓手演奏計算值的方差,以體現鼓手和基本節奏的差值,最後算出此鼓手與多種基礎風格的多組值,就能對此鼓手的演奏風格做出唯一評價。最後,我們只要輸入足夠多的學習樣例,隨時調整權值,將我們的權值全部計算出來即可獲得最佳擬合的目標函數。然後我們在DAW中進行操作時,計算機隨機挑選出多個節奏型,並根據你調整權值後的目標函數V1(b),就能產生符合你選中鼓手的隨機節奏型。(以上皆為腦洞胡逼,不可作為正經建議使用)說這麼多,其實也就是想告訴題主你想多了。機器學習的本質是一門方法論,對任何特定問題都要進行目標函數的建模,而不是一個即插即用的萬能軟體。你說的Magente和Tensorflow、Torch都是些機器學習的框架而已,不能通用性地解決爵士鼓的節奏型輸出問題。而且其實Drummer功能很簡單,你看隨機定義節奏型的面板總共就橫豎倆坐標軸,一個輕重、一個多少。多少可以對鼓手演奏出的三軌音符進行隨機增減即可(右邊的小打同理),輕重更簡單,隨著坐標值調整力度就行了。爵士鼓即興本來就沒那麼嚴謹,甚至你都可以試著自己實現一下,根據我使用Drummer的經驗,它們也就做到了這種程度而已。不過你這麼一說,我覺得這事兒真的可以用機器學習來實現不過機器學習在音樂領域還有更多實用的功能,比如現場調音,我們可以對全世界各種演出場所的聲場進行採樣學習,並讓鼓手選擇以自己平日練習環境的聲場為目標進行評價,這樣我們就可以通過一部設備進行自動調音了。(哎呀想想就很屌)
而且人工智慧的作品也已經有了嘛,替代基層編曲人員就是個時間問題。么么噠~
補充一下,樓下其他答案別跑偏了,人家題主說的就是基層編曲工作,也不是什麼需要開宗立派的活兒,怎麼就不能替代了。而且一次性的快銷商品音樂產業鏈你們沒接觸過吧?跟你們說就是他媽這麼不走心,我現在一分鐘音樂報價5000給客戶,作品就是不走心的,走心可以啊,一分鐘十萬。媽的要都走心我這一個月賺個房貸都要累死了。
而且現有人工智慧演算法就是用來對現有數據分析並抽象出後再套用的一個過程,不存在創造過程。不但不了解音樂,連計算機知識也不懂就別發言了。
早就可以了好么謝謝,沒學過樂理的人大概不會懂樂理音階和弦和聲等,只是數學推算赫茲數並排列組合而已,任何音樂的使用規律體系早就完善完整了,古典時期的勛伯格都早玩爛了全部音樂體系了,全部數字化按規律生成這種東西也早有了,之前賣吉他的那個阿姨就轉發過一個和聲分享。學十年二十年更複雜的和聲都能靠系統自動做出來,但是這種業內的科技,外行是永遠不會接觸到了,所以失業的事目測還很遙遠。這種事就和木匠造床一樣,3D列印早出來了,還不是要靠專業的人去應用科技。
這樣寫出的東西就算真的能應對市場,也沒多少藝術價值。
舉個例子:照相機都這麼先進了,要畫家還幹什麼?去年大概這個時候,我有個朋友組了一個團隊,做的就是這種事情。
給我聽過由AI做出來的學習《青花瓷》配器的《演員》編曲。很自然~完成度很高。
就是你說的,把和弦、riff、織體、配器等等,這些東西學習起來
這東西真的面世,基本上收費一千、三千、一萬這一類的編曲得轉行了。
可惜,好像融資上出了問題。
周末從學校回到家裡,聽媽媽感嘆google翻譯的變化:一年前翻譯之後,很少看到一句完整的話,今年,不僅句子完整了,而且有些比人工翻譯的還好,只是在從句比較多的時候,邏輯關係還有些亂,但相比之前,已經有質的飛躍了,不得不感嘆人工智慧太厲害,技術進步太快。我原以為人工智慧最不可能取代的就是藝術了,因為藝術太主觀。評價一個設計作品要從形態構成、功能、技術、環境、美學等多維度去評判,無法想像能否建立一套標準參數來評價它們的高下、優劣。而音樂承載了人類的思想、情感、創意,這些是否可以數字化?我想像力有限,但音樂的本質就是數學,學過樂理的人對這點會有體會,從這點上講,音樂在所有藝術門類里應該最容易被強大的人工智慧取代,對於我這個未來操作音符的小技工,這不是個好消息,但誰又能阻擋時代的車輪滾滾向前?
去年阿爾法狗的時候,我一朋友問我:怎麼沒人用深度學習開發個象棋軟體?事實是能虐頂級棋手的棋軟早就有了,而且根本用不上深度學習。
作曲跟這情況也差不多。
作曲四大件,裡面的模式早就摸索透了,如果你只要求聽起來順耳,完全可以像搭積木一樣作曲。
另外跟你透漏一下,不光是「低端」的編曲作者用作曲軟體。前兩年某省委宣傳部斥資上千萬製作的「歌劇」,同樣是軟體寫的,以至於寫出來的曲子演員拉不出來,排練現場臨時改來改去。
至少大眾臉和弦替代薛之謙這種應該沒問題,PG one的話,可能需要額外寫個聊天機器人,被網友調教下學點髒話回來。
當然我很好奇,如果用Alpha go zero這種方式讓AI自己教自己罵人,會是什麼樣子。
首先呢 鄙人以為
對於傳統的音樂材料而言 在市場所接受的範疇內音高呀 節奏 和聲織體 簡單的配器 這些東西 不要說被替代 早就有成熟的商業軟體來做了 不但做得好 還有很多人用 band in a box 這種東西都不知道出到第幾代了。當然
這種東西對於傳統的音樂材料把握較好(其實也只能把握一下傳統音樂材料)。像什麼 音色合成和信號處理 這種東西 據我所知 還沒有軟體可以 以人類的審美出發 進行藝術化的處理。一方面是因為這個 對象會比 傳統的音樂材料複雜
另一方面 我們對於傳統音樂材料的審美相對固定。而現在音樂更加得偏向音響化的審美(自認為)。
這就導致你擼出一個自動混音演算法 通過對每個分軌的的 peak 還有rms進行採樣 然後通過分析這些采來的數據 給出相應的 壓縮參數和放大參數 。 用在一首 流行歌上感覺還不錯。結果過幾天出了一個brostep。可能某個音軌上只有某一個wobble Bass音色 在橫向時間上占的比重很小,還要很響,佔據很大的動態空間。就是要刺激 就是要爆炸 就是要炫酷。這個演算法就廢了。這不還沒過幾天brostep也不流行了。
你對一個曲子做stft 據我所知 沒有什麼演算法 可以告訴你 這個地鼓是 808 還是909 或者是某款電子琴上面的 不知名玩蛇地鼓。也不能告訴你這弦樂是 噴火還是白金 還是真拉的。
你看看 那法蘭西鄉土house 一整首曲子的音符還不如車爾尼一個小節多。你能寫出那些音卻做不了法蘭西鄉土house。這個得看寫演算法的人耳朵
剛搶完民工的工作現在又想著搶音樂民工的工作了?
真實答案是,當然可以,僅限於沒學過音樂的編曲愛好者,劃重點,愛好者。
真要什麼時候想著搶基層音樂人的生意了,先把能感受美學的人工智慧搞出來再說推薦閱讀: