如何从linux服务器上的大(30Gb)zip文件中提取文件

1)从大型zip文件提取

我想从linux服务器上的大型zip文件(30Gb)中提取文件.有足够的可用磁盘空间.

我试过jar xf dataset.zip.但是,按钮已满,出现错误,无法提取所有文件.

我尝试解压缩,但zipfile损坏.

Archive:  dataset.zip 
warning [dataset.zip]:  35141564204 extra bytes at beginning or within zipfile
(attempting to process anyway)
error [dataset.zip]:  start of central directory not found;
zipfile corrupt.
 (please check that you have transferred or created the zipfile in the
appropriate BINARY mode and that you have compiled UnZip properly)

我尝试了zip -FF dataset.zip –out data.zip,并且输入太大的错误

zip错误:条目太大而无法拆分,读取或写入(压缩效果不佳导致意外大量输入 – 请尝试-fz)

无论如何我能从高大的zip文件中有效地提取文件吗?

2)从大型zip文件提取某些文件

如果我只想要这个大型zip文件中的某些文件,那么我是否只能提取这些文件?例如,来自dataset.zip的data1.txt?似乎我不能使用任何zip或unzip命令(总是有zipfile损坏的问题).

谢谢!

解决方法

我已经解决了这个问题.事实证明这是一个zip损坏问题.我首先修复了以下文件
zip -FF filename1.zip --out filename2.zip -fz

然后解压缩固定的zipfile:

unzip filename2.zip

并已成功提取所有文件

非常感谢Fattaneh Talebi的帮助!

相关文章

Linux中的ARP防火墙主要用于防御ARP欺骗攻击,其效果取决于多...
insmod和modprobe加-f参数导致Invalid module format错误 这...
将ArchLinux安装到U盘 几个月前入门Arch的时候上网搜了不少安...
1、安装Apache。 1)执行如下命令,安装Apache服务及其扩展包...
一、先说一下用ansible批量采集机器信息的实现办法: 1、先把...
安装配置 1. 安装vsftpd 检查是否安装了vsftpd # rpm -qa | ...