超大型數據中心業務層面使用什麼技術?
最近看了本juniper的書,了解到目前超大數據中心有種underlay架構,是完全用BGP協議,沒有igp,通過BGP-LU構建mpls fabric,LSP到Server,但是卻沒有講清楚在這fabric之上業務層面一般採用什麼技術?L2還是L3?請知情的大神講講。
現在數據中心比較流行的underlay架構就是ebgp架構,因為有overlay的技術出現,所以使underlay可以完全使用三層架構,業務上如果有二層的需求,如公有雲裡面的vpc等等,則是通過overlay網路來實現的,overlay的轉發平面一般比較多的是vxlan、nvgre,而控制平面比較主流的有openflow(一般用於ovs上,硬體交換機支持流表數量有限),以及交換機廠商比較推崇的mpbgp-evpn。。。
謝邀。實際上我也不知道怎麼具體回答這個問題。一千個人眼中有一千個哈姆雷特,同樣的,一千個超大型數據中心至少會有500種架構吧。
題主說的架構,不知道是不是就是juniper的contrail system架構。因為跟我印象中contrail system的overlay架構很像, Architecture Documentation
如果我猜測的對的話,那麼這種架構的設計原因可以歸結為,以下:
OpenContrail的架構在設計的時候參考了MPLS VPN的架構,組件和節點之間通訊的協議與MPLS VPN也很像。這有兩點好處:
MPLS VPN是一個成熟的技術,並且已經應用在大規模環境下,採用類似的架構可以使得OpenContrail從架構上勝任大規模環境另一方面MPLS VPN廣泛部署在現有設備上,採用類似MPLS VPN的架構可以使得OpenContrail能較為容易的接入現有的設備。
最後,如果題主想學習的話,那就學習一兩種就好了,因為超大型數據中心,更多的是實際運維時候遇到的坑,有一兩種架構作為借鑒就可以了。
另外在可靠性上有沒有什麼考慮呢?沒有標籤信令協議的frr,怎麼保證lsp快速切換呢?bgp的lsp也有frr機制嗎?如果有是怎麼下到FIB的呢?
--沒人答嗎?對了,再多問句Access,leaf,spine都是直連嗎?有沒有經過波分或PTN的情況?是不是這樣的術語往往就意味著在一個機房?推薦閱讀:
※如何看待此次順豐和菜鳥掐架?
※如何用阿里雲運行tensorflow?
※Openstack和阿里雲、AWS、AZURE等的競爭發展趨勢分析?
※如何在雲伺服器運行多個python腳本?
※為什麼阿里雲的伺服器ping時候TTL值不對?
TAG:阿里雲 | 計算機網路 | JuniperNetworks瞻博網路 | MultiprotocolLabelSwitchingMPLS | AristaNetworks |