V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
goodryb
V2EX  ›  Apple

迁移 Mac 前切记先处理 OrbStack 产生的 data.img 文件,否则迁移时间贼长

  •  
  •   goodryb · 9 天前 · 890 次点击

    最近换了 m4pro 的 MBP ,直接通过迁移助理把原系统迁移过来,免得重新配置环境,记录下遇到的坑

    OrbStack 虚拟磁盘文件导致传输卡住,发现 OrbStack 会在

    ~/Library/Group\ Containers/HUAQ24HBR6.dev.orbstack/data 新版本路径

    ~./orbstack/data/ 老版本路径

    下创建 data.img 8T ,如果不删除,文件同步就会卡在这里,哪怕是用了雷电线连接,这个文件 orbstack 自己也有说明

    OrbStack data

    This folder is used to store all OrbStack data, including Docker images, containers, and Linux machines.

    If you see an 8 TB data.img file, don't panic! It's a special type of file that it only takes as much space as you use, and automatically shrinks when you delete data. It does not take up 8 TB of disk space.

    To find the real size: - Run "du -sh data.img" in Terminal, or - Right-click the file and select "Get Info" Then look at "size on disk"

    For more details, see https://orb.cx/data-img

    第 1 条附言  ·  8 天前
    再补充点迁移过程和迁移后的相关事项
    1. 迁移最好用雷电线连接,或者 USB3.2 ,最慢的是 WiFi 点对点
    2. 迁移过程中如果开始用的 WiFi 点对点,可以插上雷电或者 USB 线,迁移助理会自己识别,卡一会就切换到速度更快的链路
    3. 如果两个机器系统版本一样(建议都升级到相同版本),迁移的时候数据选择那里可以不选系统那项
    4. 显示的迁移速度是整体过程的平均速度,不是瞬时速度
    5. 迁移时如果目标端有同名账号,如果选择把已有文件备份到用户目录下,迁移完会有很多 backup 文件,建议不要选择备份
    6. 迁移后 chrome 浏览器扩展没有,但扩展的数据还在,安装扩展后配置基本不用动(如果登录了 Google 账号,插件应该会自动同步,我因为一些原因不能登录账号)
    7. 有时候同步大文件,进度会卡住,多等一会
    8. 预估时间基本不准,建议留充足时间
    9. 迁移速度参考 雷电 4 网桥连接 探测连接速度 1700MB ,老机器实际磁盘 300G ,文件数 120w ,整体迁移耗时 1 小时 50 分钟。
    10.鼠标放到迁移的进度条上可以看到总文件数
    11.quiver 首次打开没找到 library ,手动选择打开后正常

    暂时就想起来这么多,后续有了再补充
    8 条回复    2025-09-16 09:31:22 +08:00
    wuyazuofeiji
        1
    wuyazuofeiji  
       9 天前
    → data du -sh data.img
    5.0G data.img

    直接删除再迁移吗
    goodryb
        2
    goodryb  
    OP
       9 天前
    @wuyazuofeiji 我是直接删除了。虽然实际占用空间不大,但是我严重怀疑 迁移助理把他当做正常文件来同步了
    lululau
        3
    lululau  
       9 天前   ❤️ 1
    cp 命令是支持空洞文件的,可以使用 cp 命令复制到移动硬盘来完成迁移

    rsync 有个 --sparse 选项,但是我试了一下,然并卵


    ~/tmp/sparse-file via Rb v3.2.0
    ❯ dd if=/dev/null of=sparsefile.img bs=1 count=0 seek=10G
    0+0 records in
    0+0 records out
    0 bytes transferred in 0.000006 secs (0 bytes/sec)

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ l
    total 0
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:57 sparsefile.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ du -sh *
    0B sparsefile.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ cp sparsefile.img sparsefile2.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ l
    total 0
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:57 sparsefile.img
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:57 sparsefile2.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ du -sh *
    0B sparsefile.img
    0B sparsefile2.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ rsync -zP --sparse sparsefile.img sparsefile3.img
    sparsefile.img
    10737418240 100% 198.90MB/s 00:00:51 (xfer#1, to-check=0/1)

    ~/tmp/sparse-file via Rb v3.2.0 took 54s
    ❯ l
    total 20373448
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:57 sparsefile.img
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:57 sparsefile2.img
    -rw-r--r--@ 1 liuxiang staff 10G 9 11 14:58 sparsefile3.img

    ~/tmp/sparse-file via Rb v3.2.0
    ❯ du -sh *
    0B sparsefile.img
    0B sparsefile2.img
    9.7G sparsefile3.img
    goodryb
        4
    goodryb  
    OP
       9 天前
    @lululau 看起来这是一种方法,先备份,删除文件,迁移后再恢复。 但从迁移助理实际的情况来看,他似乎就是当成一个大文件在同步
    ansemz
        5
    ansemz  
       9 天前
    用 timemachine 的时候,被这个文件坑过一次。
    lyon95
        6
    lyon95  
       9 天前
    被这个坑过一次,还原的时候整个备份都废了,备份盘里之前的备份也因为这个太大被覆盖了,还原时电脑根本没这么大空间,又不能在 timemachine 里手动删除,只能重装,手动复制相关文件😭
    volvo007
        7
    volvo007  
       7 天前 via iPhone
    明天要同步,还好看到,等会去把这个删了后面再装
    geniusjoy
        8
    geniusjoy  
       4 天前
    我是通过.zshrc, docker-compose.yaml 这些配置文件启动.重装后把配置恢复,插件补上.
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   906 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 22:10 · PVG 06:10 · LAX 15:10 · JFK 18:10
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.