別被騙了,揭露DSD硬解的各種真相

本文已獲得作者授權,文中言論不代表乙迷觀點。 作者:xs_horizon

關於原生1bit DSD硬解以及高保真音頻重放的一些誤解,在燒友中產生了一些討論,對於其中有所混淆的地方,在此集中做一些梳理,供大家參考。

問題1:DSD源碼的Native傳輸和DOP傳輸有何不同?

DSD源碼的Native傳輸是直接把DSD數據流送出來。

DOP是把DSD源碼分成一段一段的,把每一段裝入PCM數據塊中(因為PCM是以數據塊的形式傳輸,不是以數據流),到了後端再從PCM數據塊中把DSD數據卸下來,重新整隊成為DSD數據流。

不管是Native還是DOP,最後獲得的都是一模一樣的DSD數據流。原理是一樣的,只不過標準不同,核心還是DSD。

問題2:DSD數據在PCM的通道上傳輸DSD數據,是不是變成了PCM數據呢?

答案是否定的。

DOP只是一個協議,只是一個對DSD的包裝,並沒有改變任何DSD數據的信息。如同一個WAV文件,放到一個文件夾當中,把這個文件夾網路傳給其它人,再從文件夾中拿出這個WAV文件,你認為這個WAV文件會跟原始的有不一樣嗎?

問題3:DSD數據在播放器取出來後,轉成DOP了,再DOP成DSD,是不是會產生損失呢??

其實轉這個詞放在這裡是不合適的,DSD放在DOP裡面,簡單的如同歸類打包,而不是格式轉換,就如同流行音樂文件放到流行音樂的文件夾裡面一樣。

所以DSD從文件中取出後,就打包成DOP的包,DOP的包就可以直接如PCM一樣在PCM的所有通道裡面傳輸,最後取出,從打包中取出DSD數據。不過這裡強調一點,這個打包幾乎沒有計算過程,因為打包,取出過程沒有任何的解壓縮過程(只是加點DSD的標誌信息),所以整個過程只是浪費了點帶寬外,沒有什麼損失。如果直接一點的比喻的話,DSD如同沒穿衣服的人,穿了套衣服就可以見世面(見世面如同在通道中自由傳輸),回家脫了衣服,人又沒變。

DOP SPDIF的接收其實是跟PCM SPDIF接收是完全一樣,可以直接使用任何PCM現有的晶元,不過要取出DOP數據,則需要有專門的晶元邏輯處理,這也是為什麼同軸,AES支持 DOP的解碼器不多的原因,因為要開發。

這個晶元邏輯其實很簡單,DOP有DOP的頭部信息,完全有別於PCM,只要看到這個頭就是DSD數據,不是這個頭就是PCM數據,僅此而已。如果是DSD數據,就把DSD數據取出來,這跟DA取PCM數據完全一致,沒有任何轉換。

對於DSD解碼器來說,DSD原生的介面其實就兩根線,一根數據線,一根時鐘線。SACD對於DSD介面來說 其實就是2.8224MHZ的頻率, 即每秒傳2.8224M個數據位給DAC 。SPDIF DOP就是頻率就是176.4KHZ, 實際有效的數據就是16bit(共24位,但高8位是DOP的標誌信息,無用), 176.4khz*16=2.8224MHZ,所以兩者完全對應,無需任何的轉換,直接spdif傳過來,就可以通過原生的DSD介面送給DSD DA。

有人說DOP是DSD2PCM,這其實是完全是名詞偷梁換柱般的誤解,沒有理清一些基本的DSD傳輸過程所致。

問題4:原生DSD 解碼與DA內部DSD轉PCM解碼有什麼區別?

有些DA有Pure dsd原生模式,即沒有經過西格馬過程,但是這個過程一個問題,就是音量小於6db,同時無法控制音量,這就是原生解碼,還有另外一種格式就是DA內部DSD轉PCM,這種就跟PCM差不多,可以實現音量控制,音量與PCM一致,那種我們認為並不是原生解碼。

如下紅色圖為CS4398的原生DSD通道,而另一條通道為DSD轉PCM通道。

兩種方式解碼的聲音是有所區別的:

問題5:個別廠家說DSD直解只有歐美頂級產品能實現,比如DCS? 說國內某些廠家也說自己是「直解」,顯然是在玩文字遊戲打擦邊球,搞亂用戶的思維?

SACD 的重放並不是一個新的技術,很多年前都已經存在,所以在CS4398,DSD179x時就在DA內部有一個Pure DSD通道,這並不是一個全新的技術。但是前幾年的數播,並沒有支持DSD,即使有支持DSD,如上個問題所說,它並沒有利用起它的原生DSD通道,其實仍然在DA內部採用DSD轉成PCM(因為DSD轉PCM通道控制簡單,無需切換,而且聲音統一)。但是享聲A280C起,全部有兩種通道供選擇,一種是DSD轉PCM,一種是真正的原生1bit DSD重放,這個在開關前級時就能體現出兩種模式在DSD重放時的巨大區別。享聲在2013初年研發A200時也是這麼認為的,所以才沒有研發出真正原生DSD的播放器,對此我們深表理解。

問題6:什麼是硬解,什麼是軟解?

在數字音樂重放當中,一般認為軟解就是CPU解碼,即常見的操作系統,多線程或多進程解碼,缺點就是容易受到其它任務中斷,嚴重時會有斷音或斷流,即穩定性較差。

而硬解一般指全硬解解碼,由FPGA或音頻專門的DSP進行解碼,穩定性高,只要輸入到DSP或FPGA不斷流或沒有錯誤,中間是不會有其它不穩定的情況。

問題7:常見的數字音樂重放都是CPU+解碼晶元,為何享聲的架構要在CPU+解碼晶元間串了一個FPGA呢?是不是多此一舉?

首先肯定不是多此一舉,因為普通消費級,包括現在的HI-FI手機方案,對聲音品質要求不是極高,所以達到入門HI-FI級即可,這樣CPU+HIFI級DA晶元確實就可以滿足相當多的普通消費者的需求。但是,享聲創立的目標不是,它是為極致音樂而開發出的Hi-END 方案,常見的CPU 數字質量非常差,嚴重影響了DA晶元的發揮,簡單的來說,DA再是一個運動員,天天吃不好,也是發揮不出來的,畢竟CPU不是為HI-END音頻所設計的。

在此說一下CPU的問題,因為CPU與DA晶元連接主要是一個音頻協議I2S,它是一個標準的音頻協議,DA的發揮好壞嚴重依賴於I2S的質量(一個帶有時鐘與數據,必且必需高精度同步的協議):

1.I2S信噪比過差,嚴重干擾到DA晶元的指標。

2.I2S時鐘與數據同步不佳,或者時鐘不精準,嚴重影響DA晶元的聲音輸出的穩定性。

問題8:享聲採用了FPGA 雙晶振架構,但是也看到很多其它廠家也有雙晶振架構,有何不同?

首先,享聲的FPGA+CPU的架構是2011年申請的國家專利,行業第一家。同時在這個架構上我們有五年的演算法優化經驗與大量的演算法積累並未公開。以下對比幾種與我們專利架構不衝突,但是有區別的雙晶振方案供大家參考:

作者:xs_horizon


推薦閱讀:

TAG:無損音樂 | 耳機 | 高保真音頻HighFidelity | HiFi |