Ceph開發者月報2018年6月版

Ceph開發者月報2018年6月版

來自專欄 Ceph開發者月報

本篇為 2018 年度《Ceph 開發者月報》專欄的第六篇,在《Ceph 開發者月報》中,我們 UMCloud 存儲團隊將以月度為單位,為大家分享當月 Ceph 社區的有趣的提交和重要的變更,方便大家即刻掌握一手 Ceph 社區開發資料。

每篇將以對象存儲、塊存儲、統一存儲層、集群管理、基礎庫等模塊組織,為大家一一介紹。

本期三個重點:

  1. ceph-disk 廢棄了,下個版本只能用 ceph-volume 了
  2. seastar-based OSD 已經在路上了
  3. 基於SMART 測試結果的硬碟故障預測要來了

塊存儲

rbd 引入基本的 namespace 支持

github.com/ceph/ceph/pu

rbd: basic support for images within namespaces #22673

github.com/ceph/ceph/pu

librbd: namespace create/remove/list support #22608

統一存儲層

BlueStor 的allocator 減少了內存佔用

BlueStore 引入了新的空閑塊管理器 bitmap,優化了內存佔用。已經作為bluefs和BlueStore 默認的空閑塊管理器。

github.com/ceph/ceph/pu

os/bluestore: new bitmap allocator #21825

集群管理

ceph-disk 被移除,只能使用 ceph-volume

github.com/ceph/ceph/pu

ceph-disk: removal #22343

添加 osd destroy new 命令支持保留 OSD id 但是刪除OSD 數據

github.com/ceph/ceph/pu

mon: add 『osd destroy-new』 command that only destroys NEW osd slots #22429

支持收集硬碟的 SMART 信息並持久化到特定存儲池

github.com/ceph/ceph/pu

mgr/devicehealth: devicehealth module base

這是 Ceph 原生支持基於 SMART 預測硬碟故障的第一步。

基礎庫

網路消息層支持 iWARP 協議

msg/async/rdma: add iWARP RDMA protocol support #20297

OSD 支持奔潰時收集故障信息到 /var/lib/ceph/crash

github.com/ceph/ceph/pu

common: dump crash metadata to /var/lib/ceph/crash #22586

基於 seastar 重構 OSD 的推進

目前已經完成了工作分三部分,包括:

  1. 網路消息層支持 seastar: github.com/ceph/ceph/pu crimson: port messenger to seastar #22491
  2. 內存管理支持 seastar: github.com/ceph/ceph/pu common: add adaptor for seastar::temporary_buffer #22454
  3. 基於 seastar 實現新的線程池: github.com/ceph/ceph/pu crimson/thread: add thread pool

本月提交情況


推薦閱讀:

從本地文件系統到分散式文件系統
如何克服公共雲存儲面臨的挑戰
雲端廠商營收亮眼 上雲之路勢不可擋

TAG:Ceph | 雲存儲 | 數據存儲技術 |