ceph tier和bcache区别
作者:吴业亮
博客:wuyeliang.blog.csdn.net
Ceph tier(SSD POOL + HDD POOL)不推荐的原因:
- 数据在两个资源池之间迁移代价太大,存在粒度问题(对象级别),且需要进行writeback/promote操作。
- 在产生read miss时,IO路径过长。
- 在绝大多数场景下不合适。
相比之下,推荐使用osd cache(使用bcache)的方式:
- 利用B+树来管理SSD和HDD之间的映射关系。
- 可以选择write back、write through或者write around模式。
- SSD和HDD的比例为1:N。
- 大块IO直接写入HDD,适合多数场景。
在集群部署中,每个Ceph节点配置了12块4TB的数据盘和2块3.2TB的NVMe盘。每块4TB的数据盘作为Bcache设备的数据盘,而每块NVMe盘则用于分别作为6个OSD的DB、WAL分区和Bcache的Cache磁盘。一般来说,WAL分区的大小超过10GB就足够使用,Ceph官方文档建议每个DB分区的大小不小于对应数据盘容量的4%。Cache盘的大小推荐占数据盘容量的5%~10%,具体的设置可以根据NVMe盘的实际容量来进行灵活调整。以WAL分区设置为15GB、DB分区设置为30GB、Cache盘大小为400GB(占数据盘容量的10%)。