PVE Ceph 存储集群服务器配置建议

  • CPU

每个 Ceph 服务分配一个 CPU 内核。

  • 内存

对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。

Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。

  • 网络

建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。

一个 HDD 可能不会使 1 Gb 链路饱和,但是每个节点可以有多个 HDD OSD,可以使链路带宽饱和。

NVMe SSD 将甚至可以快速使 10 Gbps 的带宽饱和, 25、40 甚至 100 Gbps 都是可能的。

  • 磁盘

一般来说,SSD 将提供比旋转磁盘更多的 IOPS。 考虑到这一点, 除了更高的成本外,实施一个 基于 CLASS 的池分离。

另一种方式 加速 OSD 是使用更快的磁盘作为 journal 或 DB/WAL。

需要平衡 OSD 数量和单个 OSD 容量。例如:3 Nodes, 12 OSDs +

避免使用 RAID 控制器。 请改用主机总线适配器 (HBA)。

上一篇:Ceph分布式存储工作原理 及 部署介绍


下一篇:基于centos7的企业级ceph集群搭建