linux – 如何使用数百万个硬链接镜像文件系统?

我们目前有一个大问题:我们需要为我们的一个客户镜像文件系统.这通常不是一个真正的问题,但在这里是:

在这个文件系统上有一个包含数百万个硬链接的文件夹(是!MILLIONS!). rsync需要超过4天才能构建文件列表.

我们使用以下rsync选项:

rsync -Havz --progress serverA:/data/cms /data/

有谁知道如何加快这个rsync,或使用替代品?我们无法使用dd,因为目标磁盘比源小.

更新:
由于原始文件系统是ext3,我们将尝试转储和恢复.我会告诉你up2date

解决方法

我们现在使用了ext * dump.效果很好,恢复方甚至不必是ext *.

我们已经完成了离线备份,通过卸载设备并使用了dump vf – / dev / vg0 / opt | gzip -c> /mnt/backup/ext3dump.gz.

在这里你可以看到最后一行的大小,时间,速度和最后的inode数字:

DUMP: dumping regular inode 47169535
DUMP: dumping regular inode 47169536
DUMP: Volume 1 completed at: Wed Jun 29 05:42:57 2011
DUMP: Volume 1 54393520 blocks (53118.67MB)
DUMP: Volume 1 took 4:16:43
DUMP: Volume 1 transfer rate: 3531 kB/s
DUMP: 54393520 blocks (53118.67MB)
DUMP: finished in 15403 seconds,throughput 3531 kBytes/sec
DUMP: Date of this level  dump: Wed Jun 29 01:24:29 2011
DUMP: Date this dump completed:  Wed Jun 29 05:42:57 2011
DUMP: Average transfer rate: 3531 kB/s
DUMP: DUMP IS DONE

相关文章

文章浏览阅读1.8k次,点赞63次,收藏54次。Linux下的目录权限...
文章浏览阅读1.6k次,点赞44次,收藏38次。关于Qt的安装、Wi...
本文介绍了使用shell脚本编写一个 Hello
文章浏览阅读1.5k次,点赞37次,收藏43次。【Linux】初识Lin...
文章浏览阅读3k次,点赞34次,收藏156次。Linux超详细笔记,...
文章浏览阅读6.8k次,点赞109次,收藏114次。【Linux】 Open...