什么是爬虫呢?

爬虫通俗来说就是抓取网页数据,比如说大家都喜欢的妹子图、小视频呀,还有电子书、文字评 论、商品详情等等。 只要网页上有的,都可以通过爬虫爬取下来。

一般而言,Python爬虫需要以下几步:

1. 找到需要爬取内容的网页URL

2. 打开该网页的检查页面(即查看HTML代码,按F12快捷键即可进入)

3. 在HTML代码中找到你要提取的数据

4. 写python代码进行网页请求、解析

5. 存储数据 当然会撸python是前提,对于小白来说自学也不是件容易的事,需要花相当的时间去适应python 的语法逻辑,而且要坚持亲手敲代码,不断练习。 如果对自己没有自信,也可以考虑看编程课程,跟着老师的节奏去学习,能比较快地掌握python语 法体

 

 

前戏:
    1.你是否在夜深人静的时候,想看一些会让你更睡不着的图片却苦于没有资源...
    2.你是否在节假日出行高峰的时候,想快速抢购火车票成功...
    3.你是否在网上购物的时候,想快速且精准的定位到口碑质量最好的商品...

什么是爬虫:
    - 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。


爬虫的价值:
    - 实际应用
    - 就业

爬虫究竟是合法还是违法的?
- 在法律中是不被禁止
- 具有违法风险
- 善意爬虫  恶意爬虫

爬虫带来的风险可以体现在如下2方面:
    - 爬虫干扰了被访问网站的正常运营
    - 爬虫抓取了收到法律保护的特定类型的数据或信息

如何在使用编写爬虫的过程中避免进入局子的厄运呢?
    - 时常的优化自己的程序,避免干扰被访问网站的正常运行
    - 在使用,传播爬取到的数据时,审查抓取到的内容,如果发现了涉及到用户隐私
    商业机密等敏感内容需要及时停止爬取或传播


爬虫在使用场景中的分类
    - 通用爬虫:
        抓取系统重要组成部分。抓取的是一整张页面数据。
    - 聚焦爬虫:
        是建立在通用爬虫的基础之上。抓取的是页面中特定的局部内容。
    - 增量式爬虫:
        检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据。

爬虫的矛与盾


反爬机制
    门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取。

反反爬策略
    爬虫程序可以通过制定相关的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站中相关的数据。


robots.txt协议:
    君子协议。规定了网站中哪些数据可以被爬虫爬取哪些数据不可以被爬取。



http协议
    - 概念:就是服务器和客户端进行数据交互的一种形式。
常用请求头信息
    - User-Agent:请求载体的身份标识
    - Connection:请求完毕后,是断开连接还是保持连接

常用响应头信息
    - Content-Type:服务器响应回客户端的数据类型

https协议:
    - 安全的超文本传输协议

加密方式
    - 对称秘钥加密
    - 非对称秘钥加密
    - 证书秘钥加密

 

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...