Li Sheng | Backend / Distributed Storage Engineer Li Sheng | Backend / Distributed Storage Engineer
Home
Resume
Projects
Topics
Notes
GitHub (opens new window)
Home
Resume
Projects
Topics
Notes
GitHub (opens new window)
  • 李胜 分布式存储工程师
  • 项目经历
    • 1. CephFS 合规存储
    • 2. CephFS 性能测试与可观测性分析
    • 3. CephFS IOPS QoS 限速
    • 4. CephFS 容灾与产品化
    • 5. 存储集群在线扩缩容与换盘
    • 6. NVMe 虚拟化与逻辑分区管理
    • 7. 存储集群监控与故障管理
  • CephFS 合规存储
  • CephFS IOPS QoS 限速
  • CephFS 性能测试与可观测性分析
目录

项目经历

# 项目经历

这页介绍我做过的一些项目:CephFS 元数据控制面增强、合规存储、MDS 性能测试与可观测性分析、MDS 侧 QoS、文件存储容灾与产品化、DAOS 集群资源在线调整、NVMe 资源抽象和集群可观测性建设。

# 1. CephFS 合规存储

  • 项目背景:面向监管留存、档案归档、日志留存等不可篡改场景,将文件保护能力下沉到 CephFS 元数据控制面。
  • 我的职责:负责 WORM 需求拆解、方案设计和核心链路落地,覆盖客户端、协议层、MDS 控制面、OMAP 持久化和审计链路。
  • 关键难点:保护期判断不能依赖节点本地时间;受保护文件需要同时防住客户端缓存路径、管理接口差异和 MDS 服务端绕过路径。
  • 核心贡献:设计目录级 WORM 策略模型、生命周期状态机和逻辑 WORM 时钟;在 open、write、truncate、unlink、rename、link、setattr 等关键写路径接入校验;拆分 WormManager、WormClock、WormInfo、WormList、WormRecord 等 MDS 模块。
  • 结果:为 CephFS 补齐面向合规存储场景的不可篡改能力闭环,提升保护期判定一致性、审计可追溯性和平台化运维接入能力。
  • 详情入口:CephFS 合规存储

# 2. CephFS 性能测试与可观测性分析

  • 项目背景:面向 CephFS 高负载元数据场景,建设可复用的压测与 MDS 可观测性分析链路,用于定位吞吐下降、延迟升高和系统稳定性风险。
  • 我的职责:负责实验方案设计、压测框架搭建、MDS perf dump 指标采集、数据清洗与增量计算、时序分析和瓶颈归因。
  • 关键难点:压测结果只能说明“变慢了”,不能直接回答“慢在哪里”;MDS 内部指标多为累计值,需要转换为可对齐、可比较、可解释的时序信号。
  • 核心贡献:基于 OpenMPI 和 mdtest 构建 3 台压测机 / 3 租户并发模型,覆盖 1 active MDS 与 3 active MDS、MDS cache、元数据池介质、文件规模、目录层级、纯元数据操作和真实小文件读写等变量;以 10 秒间隔采集 MDS admin socket perf dump,跟踪 request、reply_latency、forward、dir_fetch、peer_lookup、inodes、caps、journal_latency、cache_hit 等指标。
  • 结果:形成“稳定压力模型 → 内部指标采集 → 增量时序分析 → 瓶颈归因 → 运维动作闭环”的性能治理方法,能区分多 rank 协同成本、cache 压力、目录获取、元数据池介质和数据面写入等不同瓶颈,并为扩 MDS、调 cache、目录打散、介质优化等运维动作提供依据。
  • 详情入口:CephFS 性能测试与可观测性分析

# 3. CephFS IOPS QoS 限速

  • 项目背景:面向多租户共享 CephFS 场景,治理热点 subvolume 高频元数据请求对 MDS 处理能力的抢占。
  • 我的职责:参与需求拆解和方案设计,将“IOPS QoS”收敛为 CephFS MDS metadata request QoS,并负责 MDS 侧调度链路和运行态管理能力。
  • 关键难点:限速对象是 MDS metadata request,不覆盖 OSD 数据读写;多客户端需要在同一 subvolume 维度共享 QoS 状态,多 MDS 场景需要在精度和热路径开销之间取舍。
  • 核心贡献:新增 MDS dmClock 调度器,在 Server::dispatch() 的 client request 入口接入调度;基于 client session root 识别业务根路径并归一化到 subvolume root;通过 admin socket 暴露 dump qos、qos set、qos get、qos rm 等观测和管理入口。
  • 结果:为 CephFS 增加 subvolume 维度的 MDS metadata request QoS 能力,支持按 reservation / weight / limit 对热点元数据请求排队调度。
  • 详情入口:CephFS IOPS QoS 限速

# 4. CephFS 容灾与产品化

  • 项目背景:面向文件存储产品化交付,需要将 CephFS 多集群镜像同步、NFS 网关和容量治理能力纳入统一部署、配置、管理和验证流程。
  • 我的职责:参与 cephfs-mirror 多集群镜像同步产品化,梳理灾备配置、同步关系管理、状态观测和故障处理流程;参与 NFS 网关管理交互设计和功能应用验证;参与 Ceph OSD 容量限制相关产品适配与验证。
  • 核心贡献:补齐文件存储容灾、协议网关和容量治理场景下的产品侧配置管理、运行状态展示和交付验证能力,推动底层存储能力转化为可运维、可交付的产品功能。
  • 结果:支撑 CephFS 跨集群容灾、NFS 协议接入和 OSD 容量控制等能力的平台化落地,增强文件存储产品在灾备、访问接入和资源治理方面的完整性。

# 5. 存储集群在线扩缩容与换盘

  • 项目背景:分布式存储系统需要在不停机前提下动态增加或回收节点、硬盘和容量,并保持数据安全、服务连续性和集群状态一致。
  • 我的职责:负责中电云分布式存储系统控制侧与部分引擎侧能力开发,推动节点级、硬盘级扩容、缩容和换盘流程上线。
  • 关键难点:资源调整发生在在线集群中,流程跨控制侧、节点侧和引擎侧;缩容和换盘涉及数据迁移、状态检查、异常回滚和资源释放,风险高。
  • 核心贡献:实现扩容、缩容、换盘关键流程;打通控制侧 gRPC 通信、硬盘发现、状态同步、资源申请和引擎侧 SPDK blob / target 创建链路;设计失败重试、异常回滚与资源回收机制。
  • 结果:在约 30 节点 / 600 磁盘规模完成验证,加盘、换盘关键流程整体耗时从约 60s 优化到 5s 内,将高风险人工操作沉淀为系统级在线能力。
  • 详情入口:暂无独立详情页,当前以本页概览为主。

# 6. NVMe 虚拟化与逻辑分区管理

  • 项目背景:高速 NVMe 设备需要同时承载元数据、对象元数据、读写缓存等多类负载,需要兼顾性能、隔离和容量利用率。
  • 我的职责:负责 NVMe 设备虚拟化与逻辑分区管理能力设计和落地,支撑后续容量调度与在线调整。
  • 关键难点:不同数据类型的 I/O 模式差异大,分区抽象不合理会影响性能表现和容量利用率;在线调整要求逻辑抽象稳定,不能破坏现网数据布局。
  • 核心贡献:设计 NVMe 逻辑分区抽象,通过 SPDK 提供多个虚拟硬盘承载不同数据类型;规划元数据、对象元数据和缓存等分区职责;实现虚拟硬盘在线扩缩容能力。
  • 结果:提升系统对多类 I/O 负载的适配能力和资源使用灵活性,为后续性能优化、容量调度和运维管理提供更清晰的设备抽象。
  • 详情入口:暂无独立详情页,当前以本页概览为主。

# 7. 存储集群监控与故障管理

  • 项目背景:集群可用性问题通常由节点、硬盘、网络和状态流转共同触发,需要持续监控、告警和恢复能力。
  • 我的职责:负责集群状态监控、健康检查、故障告警和恢复相关能力建设。
  • 关键难点:监控对象跨节点、硬盘、网络和硬盘池,状态面广;故障恢复需要和已有集群流程配合,避免恢复动作放大问题。
  • 核心贡献:实现硬盘、节点和网络状态的实时监控与健康检查;设计故障告警和报告生成机制;支持节点宕机恢复、硬盘池健康检测等自动化恢复流程。
  • 结果:提升集群异常可观测性和问题定位效率,降低人工巡检与排障成本,增强系统稳定性。
  • 详情入口:暂无独立详情页,当前以本页概览为主。
Last Updated: 2026/04/22, 10:18:06
李胜 分布式存储工程师
CephFS 合规存储

← 李胜 分布式存储工程师 CephFS 合规存储→

最近更新
01
ceph分布式存储-对象存储(RGW)搭建
10-27
02
ceph分布式存储-管理crushmap
10-27
03
ceph分布式存储-集群客户端连接
10-27
更多文章>
Theme by Vdoing
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式