从 Snowball Edge 优化中提取对象

问题描述

我最终购买了 snowballEdge 设备并尝试将文件从设备复制到我的系统。

设备上大约有 900 万个对象 @ 9TB。

最大的问题:

所有本地 aws cli 命令都有 1000 个对象的限制,因此我一次只能 cpmvlssync 1000 个对象。

当前解决方案:

就目前而言,我目前有 3 个脚本:

  1. 遍历 snowball Edge 设备以获取对象名称

    • 我尝试用 ls --recursive 引用它们,但它一次只列出 1000 个对象
  2. 使用 #1 中的文件在我的本地计算机上创建一个目录系统,该目录系统与 snowball Edge 设备中的目录系统相同

  3. 创建一个 python 脚本,以使用 #1 中的文件文件的迭代中调用 aws cli 命令。这是目前有 88 个线程的多线程:

    • aws s3 cp --bucket bucketname+/+filename ./filename
    • 这似乎有硬件限制,因为它通过了对写入操作有一些限制的 NIC
    • 我们已开启 --quiet关闭打印瓶颈

解决方案在 1 分钟内处理了大约 9GB 的数据,而我需要大约 120 小时才能进行传输。

问题:

有没有办法优化将 AWS snowball Edge 的数据传输回本地设备的过程?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)