半夜不睡觉,写个爬虫爬小说《完美世界》

下面是编程之家 jb51.cc 通过网络收集整理的代码片段。

编程之家小编现在分享给大家,也给大家做个参考。

__author__ = 'zouxiaoliang'

import urllib
import re
import os
import codecs

def getBookMemu(url_path):
    menu_patten = '<dd>.*?</dd>'
    url_chapter = '<dd><a href="(.*)">(.*)</a></dd>'
    thePage = urllib.urlopen(url_path)
    page = str(thePage.read()).decode('gbk')
    menu_list = re.findall(menu_patten,page)
    menu = dict() # map<url,chapter>
    for chapter in menu_list:
        g = re.match(url_chapter,chapter)
        if g:
            menu[url_path+g.group(1)] = g.group(2)
    return menu
    pass;

def getContent(url_path):
    cc = str()
    thePage = urllib.urlopen(url_path)
    page = str(thePage.read()).decode('gbk')
    # print(page)
    c_patten = '<div id="content">(.*)</div>'
    g = re.search(c_patten,page)
    if g:
        cc = g.group(1)
        # print(cc)
        cc = re.sub('&nbsp;','',cc)
        cc = re.sub('<br /><br />','\n',cc)
        # print(cc)
    return cc
    pass

def writeFile(dirname,filename,content):
    w_handle = codecs.open(dirname+'//'+filename+".txt",mode='wb',encoding='utf8')
    w_handle.write(content)
    w_handle.close()
    pass

if __name__ == '__main__':
    m = getBookMemu('http://www.biquge.la/book/14/')
    for c in m.keys():
        url = c
        name = m[c]
        print('%s,%s' %(url,name))
        while True:
            try:
                cc = getContent(url)
                # print(cc)
                if not os.path.exists('biquge'):
                    os.mkdir('biquge')
                writeFile('biquge',name,cc)
                break
            except:
                continue
    print("get book over")

以上是编程之家(jb51.cc)为你收集整理的全部代码内容,希望文章能够帮你解决所遇到的程序开发问题。

如果觉得编程之家网站内容还不错,欢迎将编程之家网站推荐给程序员好友。

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...