ubuntu – 如何从网站使用wget下载所有文件(但不是HTML)?

如何使用wget和从网站获取所有的文件

我需要所有文件,除了网页文件,如HTML,PHP,ASP等。

要过滤特定的文件扩展名:
wget -A pdf,jpg -m -p -E -k -K -np http://site/path/

或者,如果您喜欢长选项名称

wget --accept pdf,jpg --mirror --progress --adjust-extension --convert-links --backup-converted --no-parent http://site/path/

这将镜像站点,但没有jpg或pdf扩展名的文件将被自动删除

相关文章

目录前言一、创建Hadoop用户二、更新apt和安装Vim编辑器三、...
原文连接:https://www.cnblogs.com/yasmi/p/5192694.html ...
电脑重启后,打开VirtualBox,发现一直用的虚拟机莫名的消失...
参见:https://blog.csdn.net/weixin_38883338/article/deta...
Ubuntu 18.04 LTS 已切换到 Netplan 来配置网络接口。Netpla...
介绍每个 Web 服务都可以通过特定的 URL 在 Internet 上访问...