Ceph開發者月報2018年6月版
來自專欄 Ceph開發者月報
本篇為 2018 年度《Ceph 開發者月報》專欄的第六篇,在《Ceph 開發者月報》中,我們 UMCloud 存儲團隊將以月度為單位,為大家分享當月 Ceph 社區的有趣的提交和重要的變更,方便大家即刻掌握一手 Ceph 社區開發資料。
每篇將以對象存儲、塊存儲、統一存儲層、集群管理、基礎庫等模塊組織,為大家一一介紹。
本期三個重點:
- ceph-disk 廢棄了,下個版本只能用 ceph-volume 了
- seastar-based OSD 已經在路上了
- 基於SMART 測試結果的硬碟故障預測要來了
塊存儲
rbd 引入基本的 namespace 支持
https://github.com/ceph/ceph/pull/22673
rbd: basic support for images within namespaces #22673
https://github.com/ceph/ceph/pull/22608
librbd: namespace create/remove/list support #22608
統一存儲層
BlueStor 的allocator 減少了內存佔用
BlueStore 引入了新的空閑塊管理器 bitmap,優化了內存佔用。已經作為bluefs和BlueStore 默認的空閑塊管理器。
https://github.com/ceph/ceph/pull/21825
os/bluestore: new bitmap allocator #21825
集群管理
ceph-disk 被移除,只能使用 ceph-volume
https://github.com/ceph/ceph/pull/22343
ceph-disk: removal #22343
添加 osd destroy new 命令支持保留 OSD id 但是刪除OSD 數據
https://github.com/ceph/ceph/pull/22429
mon: add 『osd destroy-new』 command that only destroys NEW osd slots #22429
支持收集硬碟的 SMART 信息並持久化到特定存儲池
https://github.com/ceph/ceph/pull/22479
mgr/devicehealth: devicehealth module base
這是 Ceph 原生支持基於 SMART 預測硬碟故障的第一步。
基礎庫
網路消息層支持 iWARP 協議
msg/async/rdma: add iWARP RDMA protocol support #20297
OSD 支持奔潰時收集故障信息到 /var/lib/ceph/crash
https://github.com/ceph/ceph/pull/22586
common: dump crash metadata to /var/lib/ceph/crash #22586
基於 seastar 重構 OSD 的推進
目前已經完成了工作分三部分,包括:
- 網路消息層支持 seastar: https://github.com/ceph/ceph/pull/22491 crimson: port messenger to seastar #22491
- 內存管理支持 seastar: https://github.com/ceph/ceph/pull/22454 common: add adaptor for seastar::temporary_buffer #22454
- 基於 seastar 實現新的線程池: https://github.com/ceph/ceph/pull/22565 crimson/thread: add thread pool
本月提交情況
推薦閱讀: