Python爬取爬取明星关系并写入csv文件

  今天用Python爬取了明星关系,数据不多,一共1386条数据,代码如下:

  

import requests
from bs4 import BeautifulSoup
import bs4
import csv

def getHTMLText(url):
    try:
        kv = {'user-agent': 'Mozilla/5.0'}  # 请求头;指定访问浏览器为Mozilla5.0版本的浏览器
        r = requests.get(url)
        r.raise_for_status() #如果状态不是200,引发HTTPError异常
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "产生异常"

def fillUnivList(ulist,html):
    soup = BeautifulSoup(html,"lxml")
    for lis in soup.find_all('li', {'liodd', 'lieven'}):
        if isinstance(lis, bs4.element.Tag):
            spans = lis('span')
            ulist.append([spans[0].text.strip(), spans[1].text.strip(), spans[2].text.strip()])

            #print(spans[0].text.strip(),"    ",spans[1].text.strip(),"    ",spans[2].text.strip(),)

    with open('star.csv', 'a', newline='')as f:
        csv_writer = csv.writer(f)
        csv_writer.writerows(ulist)
    f.close()
    #print(ulist)

if __name__ == '__main__':
    print("爬虫开始")
    for page in range(1,100):
        url = "https://www.1905.com/mdb/relation/list/s0t0p" + str(page) + ".html"

        html = getHTMLText(url)
        ulist=[]
        fillUnivList(ulist,html)
    print("爬虫结束")

 

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...