python爬虫如何设置随机UA

一、设置User-Agent
1、创建Request对象时指定headers
url = ‘ http://ip.zdaye.com/
head = {}
head[‘User-Agent‘] = ‘Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,like Gecko) Chrome/18.0.1025.166 Safari/535.19‘
req = request.Request(url,headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode(‘utf-8‘)
print(html)
2、创建Request对象后使用add_header
req.add_header(‘User-Agent‘,‘Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,like Gecko) Chrome/18.0.1025.166 Safari/535.19‘)

参数为 (key,value)

二、设置代理IP
使用install_opener方法之后,会将程序认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序认的urlopen有影响。
from urllib import request
if name == "main":url = www.16yun.cn‘#这是代理亿牛云代理IPproxy = {‘http‘:‘168.68.8.88:66666‘}#创建ProxyHandlerproxy_support = request.ProxyHandler(proxy)#创建Openeropener = request.build_opener(proxy_support)#添加User Angentopener.addheaders = [(‘User-Agent‘,‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/56.0.2924.87 Safari/537.36‘)]#安装OPenerrequest.install_opener(opener)#使用自己安装好的Openerresponse = request.urlopen(url)html = response.read().decode("utf-8")print(html)

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...