问题描述
||
我的问题是我想保存一个由URL给定的文件。
说网址类似\'http://www.somesitename.com/Something/filename.fileextension \“
例如
some_url = \'http://www.fordantitrust.com/files/python.pdf \'
文件名= myfile.pdf
我要下载此文件。
我知道只要您的系统和所请求的url之间没有任何代理,我就可以使用urllib.urlretrieve(some_url,filename)轻松完成此操作。
我有一个代理,因此每次我要下载此文件时,都必须通过该代理。
我不知道该怎么做。
任何帮助表示赞赏。
解决方法
从Python 2.6开始不推荐使用Urllib,请改用urllib2。通常,如果设置了全局代理,则由urllib2透明地处理代理。如果不是,请尝试使用urllib2.proxyhandler设置您的代理。
来自python docs的示例代码:
proxy_handler = urllib2.ProxyHandler({\'http\': \'http://www.example.com:3128/\'})
proxy_auth_handler = urllib2.ProxyBasicAuthHandler()
proxy_auth_handler.add_password(\'realm\',\'host\',\'username\',\'password\')
opener = urllib2.build_opener(proxy_handler,proxy_auth_handler)
# This time,rather than install the OpenerDirector,we use it directly:
opener.open(\'http://www.example.com/login.html\')