vmware虚拟机迁移到hyperv_ProxmoxVE 之 V2V迁移(vmware-PVE)
在單位日常工作使用的桌面虛擬機是win10,放在vmware5.1的虛擬機上面跑,有時候使用的時候會有卡頓的情況出現,想遷移到PVE 環境使用看看會不會好些,使用clonezilla進行遷移。
順便說一下,我使用的瘦客戶端,從vmware遷移到proxmoxVE后,真的不卡頓了,哈哈。
具體過程請參考我的博客原文:http://blog.51cto.com/yuweibing/2334783,這里只說結論:
結論:
clonezilla是從底層磁盤數據拷貝實現數據遷移,通過引導系統(debian系統)進行引導,源系統和目標系統都進入引導系統后,可以直接理解為是兩臺安裝了debian linux的主機,在上面可以直接設置IP地址,在同一局域網內實現數據的傳輸遷移。
clonezilla原來的版本的實際菜單導航可能有一些差別,要特別注意的關鍵點,是在源系統選擇模式的時候,要選擇“remote-source”,這里我摸索了一點時間,開始的時候選擇了“remote-dest”,剛好反了,在最后確認的時候我仔細看怎么提示源系統的盤要被擦除,及時收住。
更早的時候,我是通過nfs網盤方式遷移,就是先將源系統的備份數據放在nfs服務器上,然后在目標系統上將nfs服務器上的備份導入,后面通過在網上發現可以通過兩臺主機在同一個局域網直接對拷的方式,更加方便。
clonezilla的這個遷移方式,不僅對PVE的v2v有效,對p2v一樣的操作方法。
clonezilla進行數據遷移的一個前提是目標系統盤不能比源系統盤小,這個問題,由于PVE環境中我使用了lvm-thin 作為虛擬機的存儲池,因此,在目標系統PVE中分配的磁盤空間并不會真正占用完所分配的空間,lvm-thin方式使用的空間是真正數據的空間,比如,分配給虛擬機D盤的空間是300G,但是D盤內的數據只有10G,那么,在lvm-thin資源池中,占用的空間只有10G 。這樣做的時候,需要監控lvm-thin的空間使用率,否則會空間溢出,可以通過lvs命令直接查看:
比如,上面的pve2-lvm-sdb是虛擬機C盤所在的存儲池,使用了33.40% ,pve2-lvm-sdc是虛擬機D盤所在的存儲池,使用了 14.07% 。
總結
以上是生活随笔為你收集整理的vmware虚拟机迁移到hyperv_ProxmoxVE 之 V2V迁移(vmware-PVE)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: c++ 线程池_基础篇:高并发一瞥,线程
- 下一篇: linux deb文件安装_如何在 Ub