百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

纯粹干货,Python爬虫的生产线—爬虫框架

ccwgpt 2024-09-29 09:58 23 浏览 0 评论


前面的一些文章已经将爬虫的基础知识解析了一遍,不过距离实践应用还差一些东西。


用现实世界中的工程做一个比喻吧。

比如说要造一辆汽车各种零件就是我们学习的各种基础知识,但是只有零件是造不出一辆汽车的,除了充足的零件之外,还需要一条运转良好的生产线,这样才能够够保质保量的生产出所需要的汽车

在爬虫程序中的担任生产线这一角色的就是爬虫框架。即 Scrapy 爬虫框架 。

Scrapy爬虫框架

Scrapy是一个由Python编写的一个开源网络爬虫框架,是一个用于爬取网络数据提取结构性数据的爬虫框架。在2008年6月出现初始版本,遵循 BSD License


主要组件


1.Scrapy引擎Engine):Scrapy引擎用来控制整个系统数据处理流程


2.调度器Scheduler):调度器从Scrapy引擎接受请求并将请求排序列入队列,并在Scrapy引擎发出请求后返还给它们


3.下载器Downloader):下载器用来抓取网页并将网页内容返还给爬虫(Spiders)。


4.爬虫Spiders):爬虫是由Scrapy用户自定义的用来解析网页并抓取特定URL返回内容的类,简单的说就是用来定义特定网站的抓取和解析规则的爬虫。也就是我们自己编写的关于特定规则的爬虫程序。


5条目管道Item Pipeline):条目管道的主要责任是负责处理由爬虫从网页中抽取的数据条目,它的主要任务是清理重复数据验证是否是所需数据存储数据至数据库


6中间组件Middlewares):中间组件是介于Scrapy引擎和其他组件之间的一个连接框架,主要是为了提供自定义的代码拓展Scrapy的功能,包括下载器中间组件爬虫中间组件


数据处理流程


Scrapy框架的整个数据处理流程Scrapy引擎进行控制,通常的运转流程包括以下的步骤:


1.引擎询问爬虫需要处理哪个网站,并让爬虫提交第一个需要处理的URL。


2.引擎让调度器将需要处理的URL放在队列中。


3.引擎从调度器获取接下来需要爬取的页面。


4.调度器将下一个URL返回给引擎,引擎将它通过下载中间组件发送到下载器


5.当下载器完成一个下载任务之后,响应内容通过下载中间组件发送到引擎;如果下载失败,引擎会通知调度器记录这个URL,然后会再次重新下载


6.引擎收到下载器的响应并将它通过爬虫中间组件发送到爬虫进行处理。


7.爬虫处理响应并返回爬取到的数据条目,此外还要将需要将新的URL发送给引擎。


8.引擎将抓取到的数据条目送入条目管道,把新的URL发送给调度器放入队列中。


一般的数据处理流程就是如此,当所有的 URL 全部处理完成之后,从第二步到第八步的循环进程就会停止


今天就先来解释一下 Scrapy 框架的知识与数据处理流程。


如果想学习更多科技知识,可以点击关注


如果对文章中的内容有什么困惑的地方,可以在评论区提出自己的问题,学记同大家一起交流,解决各种问题,一起进步。


青年学记 陪伴着各位青年


作者:青年学记 一名不断进步的程序


一起学习 一起进步


走向自立

相关推荐

想快速上手Python网络爬虫?这份实战指南你不能错过!

以下是关于Python网络爬虫实战的详细指南,涵盖基础知识、常用工具、实战案例及注意事项:一、爬虫基础概念1.什么是网络爬虫?o通过自动化程序从网页上抓取并提取数据的工具。o核心步骤:请求网...

python爬虫怎么副业接单

其实这个问题也挺重要的,花了时间花了经历去学了python爬虫,本想靠着这个技能去补贴家用或者挣点零花钱,但是发现有时候的单子是自己力所不能及的,有的东西真的是不会,又或者不知从何下手。那么这篇文章主...

用Python写了一个图像文字识别OCR工具

人生苦短,快学Python!在之前的文章里,我们多次尝试用Python实现文本OCR识别!今天我们要搞一个升级版:直接写一个图像文字识别OCR工具!引言最近在技术交流群里聊到一个关于图像文字识别的...

taskPyro:为 Python 任务与爬虫插上自动化翅膀的开源利器

在数据驱动的时代,无论是数据采集、ETL流程,还是定期的系统维护脚本,高效、可靠的任务调度成为了许多开发者和运维人员的刚需。特别是对于Python开发者而言,如何优雅地管理和调度日益增多的爬虫任...

网络爬虫:Python动态网页爬虫2种技术方式及示例

作者:糖甜甜甜https://mp.weixin.qq.com/s/5Dwh5cbfjpDfm_FRcpw1Ug这一讲,我将会为大家讲解稍微复杂一点的爬虫,即动态网页的爬虫。动态网页技术介绍动态网页爬...

30个小时搞定Python网络爬虫(全套详细版)

【课程介绍】适用人群1、零基础对Python网络爬虫感兴趣的学员2、想从事Python网络爬虫工程师相关工作的学员3、想学习Python网络爬虫作为技术储备的学员课程目标1、本课程的目标是将大家培养成...

python爬虫常用工具库总结

说起爬虫,大家可能第一时间想到的是python,今天就简单为大家介绍下pyhton常用的一些库。请求库:实现基础Http操作urllib:python内置基本库,实现了一系列用于操作url的功能。...

玛森:Python爬虫书籍推荐

  Python爬虫书籍推荐什么?玛森科技徐老师介绍,网络爬虫现在很火,不管业内人士或业外人士,大家对爬虫或多或少都有一些了解,网络爬虫通俗的讲,就是通过程序去互联网上面爬取想要的内容,并且爬取的过程...

如何入门python爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

爬虫修炼手册,Python爬虫学习入门Scrapy

爬虫就如同江湖中的神秘侠客,应运而生,成为了我们获取数据的得力助手。爬虫,正式名称是网络爬虫(WebCrawler),也被叫做网页蜘蛛、网络机器人,它是一段神奇的计算机代码,能够自动在互联网的信息...

如何入门 Python 爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

有了这4张思维导图,带你Python(爬虫)轻松入门

刚接触Python爬虫,该怎么学更有效?指南君给大家带来了这四张思维导图。非常适合刚开始学Python爬虫的同学用于回顾知识点、巩固学习情况等。话不多说,快来学习Python爬虫入门的最强干货吧!P...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

超实用!Python 在爬虫和自动化领域的 8 类工具与技术大盘点

Python在爬虫和自动化领域拥有丰富的工具库和框架,以下是一些常用工具和技术的分类整理,帮助你高效实现数据抓取和自动化任务:1.基础HTTP请求库oRequestso简洁的HTTP库...

学习Python的第四天之网络爬虫

30岁程序员学习Python的第四天之网络爬虫的Scrapy库Scrapy库的基本信息Scrapy库的安装在windows系统中通过管理员权限打开cmd。运行pipinstallscrapy即可安...

取消回复欢迎 发表评论: