首页
LocalNetwork分享
磁盘空间分析器SpaceSniffer
OMV 免费NAS系统
收藏的网页
TrueNas开源存储
磁盘相关&映像写入工具
再生龙(Clonezilla)
Proxmox 虚拟化
PVE-集群中删除节点
pve中测试ceph集群的IOPS和带宽
pve8.1安装ceph
pve中ceph配置
pve使用指定OSD创建pool
ceph按hdd和ssd创建不同ceph pool
PVE虚拟机模板
PVE运维
PVE集群下线宿主机节点-下线ceph节点
ceph运维
ceph运维-pve磁盘
PVE运维-虚拟机管理
PVE备份服务器 Proxmox Backup Server
在 Proxmox VE (PVE) 中备份并迁移包含 Ceph RBD 快照的虚拟机
好用的网页端在线工具
App Inventor谷歌开发的android(可视化)编程工具
图形化IP监视器Quick Ping Monitor
ocserv (OpenConnect server)开源ssl vpn服务器
Jupyter Notebook_网页上运行python代码
获取win中进程的网络流量_TCPView
http文件共享工具_HFS
Typecho导航主题WebStack_钻芒二开版
ESXI虚拟化
ESXI上复制虚拟机
ESXI中的网络
ESXI 配置虚拟机开机自启动
ESXI导出虚拟机 - 网络错误
云萌 Windows 10 绿色激活工具
Spug_开源运维平台
U盘启动盘工具_Ventoy
HFish蜜罐
好用的工具软件
代替xshell的SSH连接工具
jumpserver开源堡垒机
nextcloud网盘
Cloudreve网盘
Seafile网盘
觅道文档Mrdoc-云笔记、云文档、知识管理
本文档由 内网文摘 发布,转载请注明出处
-
+
首页
在 Proxmox VE (PVE) 中备份并迁移包含 Ceph RBD 快照的虚拟机
在pve中把这个虚拟机包括其所有快照同时备份出来,用来在独立的新的pve环境中还原 环境: ``` root@pve:/etc/pve/qemu-server# cat 111.conf ...... name: test-win10-abc ...... scsi0: ceph-pool-ssd:vm-111-disk-0,cache=writeback,discard=on,size=50G ...... [test] ...... name: test-win10-abc ...... scsi0: ceph-pool-ssd:vm-111-disk-0,cache=writeback,discard=on,size=50G snaptime: 1710401640 ...... [ceshi] ...... name: test-win10-abc ...... parent: test scsi0: ceph-pool-ssd:vm-111-disk-0,cache=writeback,discard=on,size=50G snaptime: 1710406666 ...... ======================= root@pve:/etc/pve/qemu-server# rbd -p ceph-pool-ssd ls -l vm-111-disk-0 50 GiB 2 vm-111-disk-0@test 50 GiB 2 vm-111-disk-0@ceshi 50 GiB 2 =================== 示例:rbd info -p ceph-pool-ssd rbd-image-name@snapshot1 root@pve:/etc/pve/qemu-server# rbd info -p ceph-pool-ssd vm-111-disk-0@test root@pve:/etc/pve/qemu-server# rbd snap ls -p ceph-pool-ssd vm-111-disk-0 SNAPID NAME SIZE PROTECTED TIMESTAMP 30 test 50 GiB Mon Feb 26 13:14:00 2024 48 ceshi 50 GiB Mon Jul 29 09:56:06 2024 ``` ``` 假设镜像的创建顺序是:基础镜像 -> 创建快照test -> 继续写入 -> 创建快照ceshi. 思路: 要导出整个历史,需要从基础开始,导出每个快照的差异。 从最开始导出: rbd export-diff ceph-pool-ssd/vm-222-disk-0@test --from-snap (empty) /path/to/test.export 然后导出从test到ceshi的差异: rbd export-diff ceph-pool-ssd/vm-111-disk-0@ceshi --from-snap test /path/to/ceshi.export 如果只需要这一个快照时,导出基础镜像的全量: rbd export-diff ceph-pool-ssd/vm-111-disk-0@test --from-snap test /path/to/base.export 根据用户提供的rbd snap ls输出,快照test的SNAPID是30,ceshi是48,这可能意味着test创建在ceshi之前。 不过,用户在虚拟机配置中有两个快照段,test和ceshi,其中ceshi的父快照是test。这可能表示快照的层次结构。 然而,这种方法可能需要确保在导入时按顺序应用差异,以重建快照结构。这可能比较复杂,特别是对于不熟悉Ceph操作的用户。 ``` ## 实际步骤: 在 Proxmox VE (PVE) 中备份并迁移包含 Ceph RBD 快照的虚拟机,需按以下步骤操作: ### **步骤 1:备份虚拟机配置** 1. **停止虚拟机** 以确保数据一致性: ```bash qm stop 111 ``` 2. **备份配置文件**: ```bash cp /etc/pve/qemu-server/111.conf /path/to/backup/111.conf ``` --- ### **步骤 2:备份 Ceph RBD 镜像及快照** 1. **导出 RBD 镜像及快照差异**: ```bash # 导出基础镜像至快照 test rbd export-diff ceph-pool-ssd/vm-111-disk-0@test --from-snap '' test.export # 导出 test 到 ceshi 的差异 rbd export-diff ceph-pool-ssd/vm-111-disk-0@ceshi --from-snap test ceshi.export # 导出 ceshi 到当前状态的差异 rbd export-diff ceph-pool-ssd/vm-111-disk-0 --from-snap ceshi current.export ``` 2. **将导出文件传输到新环境**: ```bash scp test.export ceshi.export current.export user@new-pve:/path/to/restore/ ``` --- ### **步骤 3:在新 PVE 环境中恢复** 1. **创建 Ceph 存储池(若不同)**: 确保新环境有同名池 `ceph-pool-ssd` 或调整导入命令中的池名。 2. **导入 RBD 镜像及快照**: ```bash # 创建空 RBD 镜像(可选,若直接导入到新池) rbd create ceph-pool-ssd/new-vm-disk --size 50G # 按顺序导入差异备份 rbd import-diff test.export ceph-pool-ssd/new-vm-disk rbd import-diff ceshi.export ceph-pool-ssd/new-vm-disk rbd import-diff current.export ceph-pool-ssd/new-vm-disk ``` 3. **验证快照**: ```bash rbd snap ls ceph-pool-ssd/new-vm-disk ``` --- ### **步骤 4:恢复虚拟机配置** 1. **复制配置文件到新 PVE**: ```bash scp /path/to/backup/111.conf root@new-pve:/etc/pve/qemu-server/ ``` 也可以使用新的自定义的vm ID,没有重复的就行 2. **修改配置文件(若存储池名不同)**: 编辑 `111.conf`,调整磁盘路径即可(如 `scsi0: new-ceph-pool:vm-111-disk-0,...`)。 3. **注册虚拟机**: ```bash qm rescan qm list # 确认虚拟机 111 出现 ``` --- ### **步骤 5:启动并验证** 1. **启动虚拟机**: ```bash qm start 111 ``` 2. **检查快照和功能**: 在 PVE 界面或命令行中验证快照是否可用,并测试虚拟机功能。 --- ### **注意事项** - **Ceph 权限**:确保新环境的 Ceph 客户端有权限访问存储池。 - **网络配置**:检查虚拟机网络桥接(`vmbr0`)是否存在。 - **资源冲突**:确保新环境的 VMID `111` 未被占用。 - **存储性能**:若使用不同存储类型,调整 `cache=writeback` 等参数。 --- 通过上述步骤,您可以将虚拟机及其 Ceph RBD 快照完整迁移到新 PVE 环境。 ```
local
2025年3月6日 00:26
分享文档
收藏文档
上一篇
下一篇
微信扫一扫
复制链接
手机扫一扫进行分享
复制链接
关于 LocalNetwork
LocalNetwork
是由mrdoc开源
LocalNetwork.cn
修改的在线文档系统,作为个人和小型团队的云笔记、文档和知识库管理工具。
如果此文档给你或你的团队带来了帮助,欢迎支持作者持续投入精力更新和维护!内网文摘 & LocalNetwork
>>>主页
logo
logo
下载Markdown文件
分享
链接
类型
密码
更新密码