Python网络爬虫神器PyQuery的基本使用教程

这篇文章主要给大家介绍了关于Python网络爬虫神器PyQuery的基本使用教程,文中通过示例代码介绍的非常详细,对大家学习使用PyQuery具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧。

前言

pyquery库是jQuery的Python实现,能够以jQuery的语法来操作解析 HTML 文档,易用性和解析速度都很好,和它差不多的还有BeautifulSoup,都是用来解析的。相比BeautifulSoup完美翔实的文档,虽然PyQuery库的文档弱爆了, 但是使用起来还是可以的,有些地方用起来很方便简洁。

安装

关于PyQuery的安装可以参考这篇文章:https://www.html.cn/article/82955.htm

PyQuery库官方文档

初始化为PyQuery对象

常用的CCS选择器

伪类选择器

查找标签

获取标签信息

初始化为PyQuery对象

html = """ 简单好用的 PyQuery

Python

大法

"""

相当于BeautifulSoup库的初识化方法,将html转化为BeautifulSoup对象。

bsObj = BeautifulSoup(html, 'html.parser')

PyQuery库也要有自己的初始化。

1.1 将字符串初始化

from pyquery import PyQuery as pq #初始化为PyQuery对象 doc = pq(html) print(type(doc)) print(doc)

返回

PyQuery学习

1.2 将html文件初始化

#filename参数为html文件路径 test_html = pq(filename = 'test.html') print(type(test_html)) print(test_html)

返回

PyQuery学习

1.3 对网址响应进行初始化

response = pq(url = 'https://www.baidu.com') print(type(response)) print(response)

返回

ç�¾åº¦ä¸�ä¸�ï¼�ä½ å°±ç�¥é��

��hao123����贴� ��

��产�

å ³äº�ç�¾åº¦About Baidu

©2017 Baidu 使ç�¨ç�¾åº¦å��å¿ è¯»æ��è§�å��é¦� 京ICPè¯�030173å�・

二、常用的CCS选择器

打印id为container的标签

print(doc('#container')) print(type(doc('#container')))

返回

打印class为object-1的标签

print(doc('.object-1'))

返回

打印标签名为body的标签

print(doc('body'))

返回

多种css选择器使用

print(doc('html #container'))

返回

三、伪类选择器

伪类nth

print(pseudo_doc('li:nth-child(2)')) #打印第一个li标签 print(pseudo_doc('li:first-child')) #打印最后一个标签 print(pseudo_doc('li:last-child'))

返回

大法

Python

好玩

contains

#找到含有Python的li标签 print(pseudo_doc("li:contains('Python')")) #找到含有好的li标签 print(pseudo_doc("li:contains('好')"))

返回

Python

好玩

四、查找标签

按照条件在Pyquery对象中查找符合条件的标签,类似于BeautifulSoup中的find方法

打印id=container的标签

print(doc.find('#container'))

返回

print(doc.find('li'))

返回

4.2 子辈标签-children方法

#id=container的标签的子辈标签 container = doc.find('#container') print(container.children())

返回

4.3 父辈标签-parent方法

object_2 = doc.find('.object-2') print(object_2.parent())

返回

4.4 兄弟标签-siblings方法

object_2 = doc.find('.object-2') print(object_2.siblings())

返回

五、获取标签的信息

定位到目标标签后,我们需要标签内部的文本或者属性值,这时候需要进行提取文本或属性值操作

5.1 标签属性值的提取

.attr() 传入 标签属性名,返回属性

object_2 = doc.find('.object-2') print(object_2.attr('class'))

返回

object-2

5.2 标签内的文本

.text()

html_text = """ 简单好用的 PyQuery

Hello World! Python

大法

""" docs = pq(html_text) print(docs.text())

返回

简单好用的 PyQuery Hello World! Python 大法 好

object_1 = docs.find('.object-1') print(object_1.text()) container = docs.find('#container') print(container.text())

返回

Python Hello World! Python 大法 好

tips:如果我只想获得Hello World这个,不想得到其他的文本,可以使用remove方法将li标签去掉,然后再使用text方法

container = docs.find('#container') container.remove('li') print(container.text())

返回

Hello World!

pyquery一些自定义用法

访问网址

PyQuery与BeautifulSoup对比,我们会发现PyQuery可以对网址发起请求。 比如

from pyquery import PyQuery PyQuery(url = 'https://www.baidu.com')

opener参数

这是PyQuery对百度网址进行请求,并将请求返回的响应数据处理为PyQuery对象。一般pyquery库会调用urllib库,如果想使用selenium或者requests库,可以自定义PyQuery的opener参数。

opener参数作用是告诉pyquery用什么请求库对网址发起请求。常见的请求库如urllib、requests、selenium。这里我们自定义一个selenium的opener。

from pyquery import PyQuery from selenium.webdriver import PhantomJS #用selenium访问url def selenium_opener(url): #我没有将Phantomjs放到环境变量,所以每次用都要放上路径 driver = PhantomJS(executable_path = 'phantomjs的路径') driver.get(url) html = driver.page_source driver.quit() return html #注意,使用时opener参数是函数名,没有括号的! PyQuery(url='https://www.baidu.com/', opener=selenium_opener)

这时候我们就能对PyQuery对象进行操作,提取有用的信息。具体请看上次的分享,如果想了解更多的功能,pyquery文档写的不怎么详细,好在基本跟jQuery功能吻合,我们如果想用好pyquery,需要查看jQuery文档。

cookies、headers

在requests用法中,一般为了访问网址更加真实,模仿成浏览器。一般我们需要传入headers,必要的时候还需要传入cookies参数。而pyquery库就有这功能,也能伪装浏览器。

from pyquery import PyQuery cookies = {'Cookie':'你的cookie'} headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'} PyQuery(url='https://www.baidu.com/',headers=headers,cookies=cookies)

让你的selenium带上pyquery功能

让driver访问的网址得到的网页直接变为PyQuery对象,更方便提取数据

from pyquery import PyQuery from selenium.webdriver import PhantomJS class browser(PhantomJS): @property def dom(self): return PyQuery(self.page_source)""" 这部分property是装饰器,需要知道@property下面紧跟的函数,实现了类的属性功能。 这里browser.dom,就是browser的dom属性。 """ browser = browser(executable_path='phantomjs的路径') browser.get(url='https://www.baidu.com/') print(type(browser.dom))

返回

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对编程之家的支持

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...