噹噹彈性化中間件及雲化之路(據說讀完可以少踩坑)
6月24日,雙態運維·烏鎮峰會-數人云專題研討會上,張亮老師從業務、中間件、雲化的方向出發,分享了噹噹網實踐落地容器的經驗。數人云掐指一算,稀缺好文,宜收藏和分享!
▼
今天主分享的內容分為三部分——
- 第一部分:噹噹業務體系簡介。受限於時間,只做簡單概述。
- 第二部分:介紹噹噹的彈性化中間件。現階段,無狀態容器已趨於成熟,需要進一步開發和優化的是運行在容器裡面的部分,即中間件。
- 第三部分:噹噹的雲化之路。
業務特徵
▼
首先,介紹下噹噹的業務特徵,這也是互聯網行業的共有特徵:
海量用戶 噹噹面向的是完全開放的、整個互聯網的億級用戶量。
品類繁多 噹噹是賣書起家的,書的品類是很多的。除了書,噹噹還有百貨、服裝等。與垂直電商不同,水平電商由於品類繁多,因此數據架構也會有很大區別。
7X24 互聯網公司基本都是如此要求,盡量縮短宕機時間。
流量突增 如「雙11」或「書香節」,其流量是平時的幾倍到幾十倍不等。
業務複雜 下圖是業務框架圖,分為三部分,中間部分是噹噹主業務流程,從用戶查看選擇商品的賣場模塊,到購物車、結算的交易模塊,最後發至訂單工作流系統;然後通過倉儲系統生產訂單,並交由物流系統配送貨品。上面部分是用戶相關的系統,如搜索、推薦、促銷、會員等。下面部分是為噹噹運營人員與合作夥伴提供的系統,如商品、價格、庫存等。
這僅是縮略版的系統架構圖,噹噹實際系統要複雜的多、用到的語言也各異,大部分如:前端PHP、後端Java、搜索系統用C++,推薦系統用Go和Python。因此它是一個由異構語言組成的複雜系統集合。
業務特徵·互聯網架構核心問題
▼
互聯網核心問題和企業級開發不一樣的地方在於規模。互聯網公司的規模由以下幾點組成的——
海量數據:包括但不限於用戶數據、商品數據、交易數據、訂單數據、用戶行為數據等。由於數據量巨大,因此不能僅使用單一的數據存儲結構,也不能以單數據節點的方式存儲所有數據。
響應遲緩:大量的用戶訪問,使得系統承載了更多流量,處理過多的請求會導致系統響應變的遲緩。
系統繁多:通過上一張圖可以得知,系統是由非常多的子系統組成的,每個子系統各司其職。合理的系統拆分可以靈活的分離冷熱數據、擴容重點系統等。
開發困難:各個系統都是由異構語言的不同技術棧構成,開發成本較高。
穩定性差:由於系統間交互增多,系統之間會形成一個複雜的交互網。任一系統出現問題,都可能導致部分不可用,進而增加整體不可控的風險。系統拆分的越多,出問題的可能性就越大,系統穩定性就會越差。
伸縮性差:電商公司不可能常備「雙11」的機器體量。因此遇到大促等需要承載突發流量的場景,系統需要可以彈性伸縮。在流量增加的時候擴張容量,用於承接更多的購買需求;在流量下降的時候收縮容量,節省成本。
中間件·解決方案=中間件+雲平台
▼
解決方案是中間件+雲平台。
中間件解決的主要問題是服務化、彈性化和非同步化。
- 服務化:眾多系統間應該提供一致的交互和治理方式。
- 彈性化:讓系統具備根據實際需要靈活的擴縮容的能力。
- 非同步化:將同步調用鏈梳理為同步落盤 + 非同步處理的方式以提升吞吐量。
雲平台解決的主要問題是部署自動化和監控一體化。
中間件缺乏對運行環境搭建,App部署分發等能力,也難以提供統一的監控一體化系統,因此雲平台在這方面是對中間件的有益補充。
中間件·基礎3件套
▼
這裡介紹最主要的三個中間件:服務中間件、作業中間件和數據中間件。中間件遠遠不止這三種,限於時間,無法涵蓋全部的中間件:如消息中間件、緩存中間件、NoSQL以及離線大數據等因時間關係不在分享範圍之內。
中間件·服務中間件
▼
服務中間件有很多優秀的開源產品,從早期的Finagle, Dubbo,到近期出現的Motan,Spring Cloud都是個中翹楚。服務中間件的核心功能主要包括:
遠程調用:分為長連接調用和短連接調用兩種方式。長鏈接採用Socket + 二進位序列化的方式居多,短連接以HTTP RESTFul + JSON的方式為主。無論採用何種調用方式,都應在服務中間件中封裝為統一介面。
服務發現:自動感知上線和下線的應用,並分配和截斷相應的請求。標準實現方案是通過一個註冊中心管理和協調分散式應用,常見的註冊中心有Zookeeper,etcd和Eureka。
負載均衡:合理的將流量分配給權重不盡相同的分散式節點。
服務治理:包括服務調動鏈梳理、服務降級、服務版本控制等功能。
限流:將過載的流量擋在後端系統之外,讓部分不過載的請求可以繼續提供服務。保證系統不會因為突增的流量而被完全衝垮,而是任何情況下都能提供對核心用戶的平穩服務能力。
監控報警:提供將內部指標通過API對接到外部系統的能力,內部指標一般有SLA、服務狀態、節點承載量等。
上圖是噹噹採用的服務框架——DubboX。
該項目Fork了阿里開源的Dubbo,並內置了Web伺服器且增加REST協議,用於支持異構語言間的調用。每個基於DubboX的應用均可通過內置的Web伺服器提供服務,每個Web伺服器通過Nginx實現負載均衡。並且在Nginx通過OpenResty實現了基於漏桶和令牌桶兩種演算法的限流插件。請求調用信息通過Agent的本地匯總之後,定期發送至一個Kafka的消息隊列,並通過Storm的二次匯總計算出SLA,存儲至資料庫中。最終由監控系統定期抓取報警數據。
使用DubboX部署的程序,在邏輯上分為兩部分。上面部分是服務的提供者;下面部分是服務的消費者。服務消費者在REST協議的場景,是直接通過Nginx代理訪問服務提供者的。如果採用Java同構應用,可以使用Dubbo原生的長鏈接+Dubbo協議,並通過註冊中心服務發現,以及客戶端負載均衡。
下圖是噹噹的SLA監控系統以及限流系統的Dashboard。
中間件·作業中間件
▼
噹噹系統中很多業務是由作業實現的,如拉單作業、價格同步作業等。因為公司系統較多,很難通過唯一的方案實現,因此也有部分系統通過消息中間件完成。作業中間件的核心功能主要包括:
定時調度:根據cron表達式的時間調度應用。
任務分片:將一個大任務拆分成為多個任務片段,分布運行。此功能後文會重點介紹。
彈性擴容:與任務分片息息相關,一併在後文中介紹。
作業治理:管控作業生命周期,如:執行、禁用、啟用以及更複雜的行為,如:失效轉移、錯過任務重觸發等。
監控報警:提供將作業運行狀態、歷史統計和查詢對接至外部系統的能力。
噹噹採用的作業中間件是自研的Elastic-Job,它可以將一個完整的作業拆分為多個相互獨立的任務。一個完整的作業運行時間可能較長,但很難通過增加機器實例提升運行效率。通過Elastic-Job將作業拆分為多個任務,可以並行的在分散式的環境中運行,提升其處理速度。用戶可以實現自己的分片策略,將任務分配至合適的節點運行。
通過上圖舉例,作業分為4片,由兩台伺服器執行,每台執行兩片。當增加一台伺服器時,如下圖所示,分片項被稀釋為伺服器1和3各執行一片,伺服器2執行兩片,那麼伺服器1和3由於執行的分片項減少,從而提升性能。
而一旦有伺服器宕機,如下圖所示,僅剩餘一台伺服器可以提供服務,那麼所有的分片都將指向該伺服器。集群的整體處理能力會下降,但作業的完整性不會受到影響,從而提供高可用的能力。
因此,隨著運行實例的增加和減少,Elastic-Job可以動態的調整分片來提升性能和保證可用性。
這是Elastic-Job的部署架構圖。
中間件·資料庫中間件
▼
接下來介紹的是資料庫中間件。關係型資料庫在大數據量的情況下,單庫單表難以支撐。解決方案是將單一的資料庫拆分為分散式資料庫,而讓開發和運維人員像訪問一個資料庫一樣訪問分散式資料庫,屏蔽其複雜度,是資料庫中間件的基本功能。資料庫中間件的核心功能主要包括:
分庫分表:通過打散數據的方式有效的減少每個表的數據量,減少索引的深度以提升查詢性能。並且拆分資料庫來有效的疏導請求流量。
讀寫分離:進一步提升資料庫的性能可以採用讀寫分離。讀庫僅負責響應查詢,寫庫相應更新,通過非同步數據同步的方式保持讀寫庫的數據一致性。這種方式可以有效的減低行鎖,進一步提升效率。
內聯事務:資料庫一旦打散,就必須使用分散式事務而導致性能急劇下降。因此如何合理的分庫分表,盡量將操作保證落在同一個庫,而使用內聯事務,是更好的選擇。
柔性事務:在內聯事務不適用的跨庫場景,犧牲強一致性來換取性能的提升,然後採用非同步補償的機制來達到最終一致性,是柔性事務的核心理念。
SQL審核:先期過濾出不符合OLTP的非法SQL。如:DELETE語句沒有WHERE等。
噹噹採用自研的Sharding-JDBC作為資料庫中間層。它直接修改JDBC協議,因此可以兼容各種資料庫以及ORM框架,應用工程師幾乎沒有學習成本,和使用原生JDBC沒有區別。應用工程師僅需要配置分片規則,用於告訴Sharding-JDBC哪一個分片鍵的數據應該路由至哪個庫的哪個表,即可。
Sharding-JDBC的內部結構包括:JDBC規範重寫、SQL解析、 SQL改寫、SQL路由、SQL執行以及結果集歸併。
上面兩個圖是Sharding-JDBC的性能測試報告,在單庫時,由於SQL解析帶來的損耗,Sharding-JDBC比原生JDBC慢了0.02%。而將數據拆分至雙庫,Sharding-JDBC比原生JDBC的性能提升了94%,因此,拆分的資料庫實例越多,其對性能的提升也越顯著。
Sharding-JDBC定位是面向在線業務的框架。因此OLTP涉及到的SQL基本都兼容。
分散式的事務處理方案有三種:XA,弱XA和柔性事務。
XA即分散式事務,他對業務代碼完全沒有侵入性,而且也可以保證分散式場景下事務的強一致性,但其性能低下,在互聯網的場景下非常不適用。
弱XA是分庫分表資料庫的中間層所提出來的概念,簡單說就是單片事務。它僅能控制單節點事務的一致性,對於分散式的事務完全沒有控制能力。他不會對性能帶來任何影響,但沒有一致性的能力,在分散式的場景下極易造成數據不一致。
柔性事務是對弱XA的補充。它使用非同步補償的方式,將短期內不一致的數據修復,達到最終一致性。它用犧牲強一致性的方式提升了性能,因此內聯事務 + 柔性事務成為了最受青睞的互聯網事務處理方案。
柔性事務有兩種比較成熟實現方案,最大努力送達型和TCC(Try Confirm Cancel)。
最大努力送達型可以保證事務最終成功,業務入侵較小,僅需要業務方實現冪等性即可。它要求事務最終一定會成功,無法回滾,因此會反覆嘗試,直至最終成功。
TCC類似原生事務,事務可以提交,也可以回滾。但事務的提交和回滾操作均需要業務工程師去實現,因此對業務入侵極大,TCC同樣需要業務代碼實現冪等性。
上圖是最大努力送達型的流程圖。它在SQL執行前記錄事務日誌,在SQL執行成功後清理相應事務日誌。一旦SQL執行失敗,事務管理器就會通過同步和非同步執行的方式從日誌庫中獲取當前的SQL反覆嘗試,直至到達最大重試次數為止。超過最大重試次數的數據需要人工介入處理。
雲化
▼
首先,應用運行時環境是通過容器來實現的,不同編程語言編寫的應用需要不同的運行時環境,將環境、應用及相關依賴一起打包發布是容器的主要作用,在噹噹採用的容器解決方案是Docker。另外,容器還可以用於隔離運行環境,讓運行在同一宿主機的不同鏡像可以安全和獨立的使用既有資源。
其次,僅通過容器無法做到應用治理。中間件是應用彈性化的關鍵,它分別針對服務、作業以及資料庫訪問進行有效的增強。服務和作業中間件是兩種截然不同的應用類型,而數據中間件則是它們的有力支撐。無狀態的服務更易彈性擴展;而有狀態的作業則通過分片項隔離與數據的依賴;資料庫中間件則用於簡化分散式資料庫的訪問以及事務處理。
最後,一個可快速運行且高度彈性化方案的最後一塊拼圖,即是需要一個平台去合理分配資源以及自動分發應用。目前比較流行的是Kubernetes和Mesos兩種方案。在使用的複雜度上Kubernetes要更加簡潔和一站式,但Mesos所採用兩級調度概念,通過其Framework定製化非常簡單,因此噹噹選擇Mesos作為資源調度系統。
分散式調度系統當前有三種架構:單體式,兩階段以及狀態共享。
單體式調度較為簡單,調度邏輯可以在沒有任何並發的情況下使用全部資源。但由於互聯網業務需求多、變化快,因此這種架構雖然性能高,但不利於業務的快速變化。Hadoop V1即採用此種架構。
兩階段調度將資源通過Offer的形式分發給註冊在調度系統中的各個Framework,由Framework負責處理接收到的Offer,調度底層系統僅用於資源的收集和治理。因此此種架構更易於通過Framework定製化擴展業務需求。Mesos即是兩階段調度的典型代表。
狀態共享調度功能看似最為強大,但實現起來卻更加複雜。它的每一個Framework都可以看到資源邏輯視圖的全集,採用樂觀鎖的方式使用資源,每次資源使用時,需要根據資源的佔用狀態進行類似於事務方式的提交和回滾。它的優點是可以更加有效的利用資源,缺點是實現難度高。除了Google閉源的Omega系統論文,開源產品中目前很少見成熟的實現方案。
上圖是噹噹雲平台的架構圖。中間件API與業務應用一起打包至Docker鏡像或tar文件,並放入應用倉庫。服務型應用噹噹採用Marathon管理,由DubboX治理服務,並與應用一同放入Docker鏡像;作業型應用噹噹使用自研的Mesos Framework Elastic-Job-Cloud代替Marathon進行瞬時和常駐作業的治理。
在Elastic-Job-Cloud中採用了自定義Executor和Mesos原生容器,它能夠追加資源。利用此功能,可以有效的聚合作業,進一步簡化開發並節省資源。Elastic-Job-Cloud調度的應用使用tar包存入應用倉庫。雖然Marathon與Elastic-Job-Cloud所管理的容器不同,但Mesos都會採用同樣的介面將其分發至相應Mesos Agent執行。
上圖是更加全面的整體雲化架構圖。可以從運維、構建、日誌和監控4個方面說明。
運維通過自研的控制台,向Mesos Framework發送信令和讀取數據來達到控制業務應用上下線、暫停執行等功能,並可查看運行時狀態。
構建是通過噹噹自研的盤古系統,控制灰度發布,一鍵回滾等功能,並由盤古系統將待部署上線的應用鏡像推送至Nexus或Docker倉庫。由Mesos Agent自動從Nexus獲取tar文件、或由Docker倉庫獲取應用鏡像並執行。
日誌採用的標準的ELK的方式,不過獲取日誌並未使用Logstash,而是採用性能更佳的Filebeat代替。
監控是由多個維度組成。首先使用Mesos Exporter暴露Mesos的狀態數據,然後由時序資料庫Prometheus定期抓取,並由Grafana展現結果。Prometheus也通過Alertmanager向噹噹自研的雷達系統發送報警數據,由雷達系統負責最終的報警。其次,雷達系統還負責抓取elasticsearch的報警日誌以及運行歷史記錄、SLA等信息一併報警。
剛才介紹的DubboX、Elastic-Job以及Sharding-JDBC都已開源。
Elastic-Job經不完全統計,有30家以上的公司在使用。Elastic-Job目前是Mesosphere官方認可的Framework,在Apache Mesos的官方文檔中可以查到,目前已經進行到對接DC/OS的最終階段。
Sharding-JDBC僅僅開源1年多,即獲取了2016年最受歡迎的國產開源第17名。
三個開源項目均採用Apache協議,有興趣的同學請自由使用,歡迎提供寶貴意見。
推薦閱讀:
※9月1日雲盾事件,對信息安全行業有什麼影響?
※使用雲資料庫會不會導致本地伺服器連接太慢呢?
※如何看待萬達獲得 IBM 在中國雲服務運營權,推 Watson 人工智慧服務?
※撥開量子計算的雲霧
※IBM雲是IaaS還是Paas?和微軟Azure、amazonWAS那個更好??