首页
LocalNetwork分享
磁盘空间分析器SpaceSniffer
OMV 免费NAS系统
收藏的网页
TrueNas开源存储
磁盘相关&映像写入工具
再生龙(Clonezilla)
Proxmox 虚拟化
PVE-集群中删除节点
pve中测试ceph集群的IOPS和带宽
pve8.1安装ceph
pve中ceph配置
pve使用指定OSD创建pool
ceph按hdd和ssd创建不同ceph pool
PVE虚拟机模板
PVE运维
PVE集群下线宿主机节点-下线ceph节点
ceph运维
ceph运维-pve磁盘
PVE运维-虚拟机管理
PVE备份服务器 Proxmox Backup Server
好用的网页端在线工具
App Inventor谷歌开发的android(可视化)编程工具
图形化IP监视器Quick Ping Monitor
ocserv (OpenConnect server)开源ssl vpn服务器
Jupyter Notebook_网页上运行python代码
获取win中进程的网络流量_TCPView
http文件共享工具_HFS
Typecho导航主题WebStack_钻芒二开版
ESXI虚拟化
ESXI上复制虚拟机
ESXI中的网络
ESXI 配置虚拟机开机自启动
ESXI导出虚拟机 - 网络错误
云萌 Windows 10 绿色激活工具
Spug_开源运维平台
U盘启动盘工具_Ventoy
HFish蜜罐
好用的工具软件
代替xshell的SSH连接工具
jumpserver开源堡垒机
nextcloud网盘
Cloudreve网盘
Seafile网盘
觅道文档Mrdoc-云笔记、云文档、知识管理
本文档由 内网文摘 发布,转载请注明出处
-
+
首页
ceph按hdd和ssd创建不同ceph pool
ceph区分hdd和ssd硬盘创建不同的ceph pool 原文:[ceph区分hdd和ssd存储](https://www.cnblogs.com/x602/p/16375896.html "ceph区分hdd和ssd存储") 也适用于pve8的ceph环境 ## 1.集群中添加osd 确定磁盘已经加进集群,CLASS 类型ceph 会自动识别出来 最少两种磁盘类型3块,不然创建pool默认副本为3,磁盘数少于3,会写入pool异常,也可以手动修改pool副本数为1 ``` [root@node3 ~]# ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.05878 root default -3 0.01959 host node1 3 hdd 0.00980 osd.3 up 1.00000 1.00000 0 ssd 0.00980 osd.0 up 1.00000 1.00000 -5 0.01959 host node2 4 hdd 0.00980 osd.4 up 1.00000 1.00000 1 ssd 0.00980 osd.1 up 1.00000 1.00000 -7 0.01959 host node3 5 hdd 0.00980 osd.5 up 1.00000 1.00000 2 ssd 0.00980 osd.2 up 1.00000 1.00000 ``` ## 2.创建rule ``` [root@node3 ~]# ceph osd crush rule create-replicated rule-ssd default host ssd [root@node3 ~]# ceph osd crush rule create-replicated rule-hdd default host hdd ``` 上面2行命令的效果,相当于在配置文件中增加: ``` rule rule-ssd { id 3 type replicated step take default class ssd step chooseleaf firstn 0 type host step emit } rule rule-hdd { id 4 type replicated step take default class hdd step chooseleaf firstn 0 type host step emit } ``` ## 3.创建pool ``` [root@node3 ~]# ceph osd pool create ssdpool 64 64 rule-ssd 正常会提示创建成功: pool 'ssdpool' created ``` ## 4.创建对象测试ssdpool ``` [root@node3 ~]# rados -p ssdpool ls [root@node3 ~]# echo "hahah" >test.txt [root@node3 ~]# rados -p ssdpool put test test.txt [root@node3 ~]# rados -p ssdpool ls test ``` 查看该对象的osd组: ``` [root@node3 ~]# ceph osd map ssdpool test osdmap e46 pool 'ssdpool' (1) object 'test' -> pg 1.40e8aab5 (1.35) -> up ([1,2,0], p1) acting ([1,2,0], p1) ``` 可以看到该对象的osd组使用的都是ssd磁盘,至此验证成功。可以看出crush class相当于一个辨别磁盘类型的标签。 ## 5.修改以前创建好的pool规则 `ceph osd pool set oldpool crush_rule rule-hdd` ## 补充 ``` 修改CrushRule: ceph osd pool set [存储池名] crush_rule [CrushRule规则名] 修改默认备份数: ceph osd pool set [存储池名] size [份数] 修改最小备份数(低于这个就停止写入): ceph osd pool set [存储池名] min_size [份数] ``` ceph-创建使用rule-ssd规则的存储池:https://blog.csdn.net/wangyiyan315/article/details/124022377 官方文档:https://docs.ceph.com/en/latest/rados/operations/crush-map/
local
2024年1月3日 20:55
分享文档
收藏文档
上一篇
下一篇
微信扫一扫
复制链接
手机扫一扫进行分享
复制链接
关于 LocalNetwork
LocalNetwork
是由mrdoc开源
LocalNetwork.cn
修改的在线文档系统,作为个人和小型团队的云笔记、文档和知识库管理工具。
如果此文档给你或你的团队带来了帮助,欢迎支持作者持续投入精力更新和维护!内网文摘 & LocalNetwork
>>>主页
logo
logo
下载Markdown文件
分享
链接
类型
密码
更新密码