「爬虫教程」第六章:Scrapy框架(上)
ccwgpt 2024-09-27 07:28 110 浏览 0 评论
回顾一下写一个爬虫需要做的一些步骤,使用requests库发送网络请求、使用lxml等解析技术对数据进行解析、使用数据库等方法进行存储数据,另外还可以在请求网络的时候进行更换IP、设置请求头等。
每次爬虫都要干这么多活,如果每次都从零开始写则比较浪费时间,所以我们需要一个框架,这个框架帮我们把一些基本的爬虫前奏都准备好了,我们只需要“站在巨人的肩膀上”即可。而Scrapy 框架就是这个“巨人的肩膀”。
它的工作原理如下:
各模块功能如下:
- Engine(引擎): scrap框架的核心部分。负责每个模块之间的通信、传递数据等。
- spiders(爬虫):将需要爬取的链接发送引擎,最后引擎把其他模块请求回来的数据再发送回爬虫,然后爬虫就可以对数据进行解析。(这部分是开发者自己写的,因为要爬取哪些连接,解析哪些数据是我们自己决定的)
- Scheduler(调度器):负责接收引擎发送过来的请求,并按照一定的方式进行排列和整理,决定了链接爬取的顺序。
- Downloader(下载器):负责接收引擎传过来的下载请求,然后去网络上下载对应的数据再交还给引擎。
- Item Pipelines(管道):负责将spider(爬虫)传递过来的数据进行保存。具体保存的方式和位置,也是由开发者自行决定。
- Downloader Middlewares(下载中间件):处于引擎跟下载器中间,处理下载请求部分。如在此可以设置请求头、IP地址等。
- Spider Middlewares(爬虫中间件):处于爬虫跟引擎中间,处理解析部分。
各模块执行过程如下:
- 引擎打开一个网站,找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。
- 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。
- 引擎向调度器请求下一个要爬取的URL。
- 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(请求(request)方向)转发给下载器(Downloader)。
- 一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(返回(response)方向)发送给引擎。
- 引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理。
- Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。
- 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。
(从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。
原理图及执行过程的描述参考于这篇文章:Scrapy架构图(工作原理)
如果觉得很不理解没关系,可以先往下学,之后再回过头来看这张图就会豁然开朗了。
6.1 快速入门
使用Scrapy之前需要先安装:pip install scrapy 。
如果在window系统下,还需安装一个东西:pip install pypiwin32
创建项目:
进入你想把此项目存放的目录,使用命令 scrapy startproject 项目名称 来创建项目。如 scrapy startproject scrapy_demo
用pycharm或其他编辑器打开该项目,项目结构如下:
主要文件的作用:
- items.py:用来存放爬虫爬取下来数据的模型,即要存储的各字段。
- middlewares.py:用来存放下载/爬虫中间件的文件。
- pipelines.py:用来将items.py中的模型进行持久化存储。
- settings.py:爬虫的一些配置信息(比如请求头、多久发送一次请求、IP代理池等许多设置)。
- scrap.cfg:项目的配置文件。
- spiders包:存放所有的爬虫文件。
以上步骤只是创建了项目,下一步还需要创建爬虫(我们在爬虫文件夹下进行写代码)
创建爬虫前需要先进入到刚才创建的项目中,然后通过命令 scrapy genspider 爬虫名字 要爬取网站的域名 。如scrapy genspider demo1 baidu.com 注意:爬虫名字不能跟项目名字重复。
此时,你会发现spiders文件夹下多了个demo1文件,内容如下:
allowed_domains是指以后所有的爬虫的链接都是在该域名下的,并不会说你要爬取百度的网址,却给你爬了个谷歌的网址。
stats_urls是指爬虫刚启动时是向该链接发送网络请求。
这些都创建好之后,就可以运行项目了,需要注意的是,在编辑器中是无法直接运行的,需要进入到爬虫文件夹下运行cmd命令 scrapy crwal 爬虫名字 运行项目。放心,以后在编辑器中有便捷方式来运行,现在先不介绍。
至此,一个scrapy就成功创建并运行起来了。来回顾一下刚才的操作:
- 创建项目:scrapy startproject 项目名字
- 创建爬虫:scrapy genspider 爬虫名字 爬取的域名 ,注意爬虫的名字不能与项目名字相同。
- 运行爬虫:scrapy crwal 爬虫名字
6.2 渐渐深入
pipelines.py文件函数:
__init__(self) 构造函数,创建pipelines时执行
open_spider(self,spider) spider(爬虫) 被打开时自动执行
process_item(self, item, spider)当爬虫有item传入时被调用
close_spider(self,spider) 当spider(爬虫)被关闭的时候执行
tips: 一般需要存储文件时在__init__(self)或者open_spider(self,spider) 中编写打开文件的操作或者链接数据库操作,在process_item(self, item, spider)中编写写入数据的操作,最后在close_spider(self,spider)中关闭文件或数据库
settings.py文件常用设置:
ROBOTSTXT_OBEY = True 是否遵循机器人协议,我们需要把它改成False
DEFAULT_REQUEST_HEADERS 设置请求头
DEFAULT_REQUEST_HEADERS = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'en',
# 设置User-Agent
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362'
}
DOWNLOADER_MIDDLEWARES 开启下载中间件,例如我这里写了三个下载中间件,后面的数字越小表示优先级越高
DOWNLOADER_MIDDLEWARES = {
'scrapy_demo.middlewares.ScrapyDemoDownloaderMiddleware': 543,
'scrapy_demo.middlewares.UserAgentDownloadMiddleware': 500,
'scrapy_demo.middlewares.IPProxyDownloadMiddlleware': 400,
}
SPIDER_MIDDLEWARES 爬虫中间件,用法同下载中间件。
ITEM_PIPELINES 开启下载项。
tips:以上的配置在settings文件中都是注释了的,我们再使用到相应功能的时候,要记得解除注释。
如何在编辑器中运行项目(怎么样才不用每次都去cmd那里运行项目):
在项目根目录中创建一个py文件,一般我喜欢命名为start.py。
内容为:
# 导入命令行
from scrapy import cmdline
# 使用命令行运行项目
cmdline.execute("scrapy crawl 项目名".split())
每次要运行项目时运行此文件即可。
结合案例介绍文件:
以爬取糗事百科网站为例,假如本次案例我们需要爬取到糗事百科的段子跟作者,并把它保存为json文件。
首先创建好项目、爬虫,在根目录下创建start.py ,接着在settings文件夹下把协议变成False,设置请求头。
qsbk_spider.py 内容:
DOWNLOADER_MIDDLEWARES = {
'scrapy_demo.middlewares.ScrapyDemoDownloaderMiddleware': 543,
'scrapy_demo.middlewares.UserAgentDownloadMiddleware': 500,
'scrapy_demo.middlewares.IPProxyDownloadMiddlleware': 400,
}
itmes.py 内容:
import scrapy
class QsbkItem(scrapy.Item):
# 在item模型中定义好要保存的数据
# 接收qsbk_spider传过来的参数
author = scrapy.Field()
text = scrapy.Field()
pipelines.py 内容:
import json
class QsbkPipeline(object):
def open_spider(self, spider):
self.fp = open('qsbk.json', 'a', encoding='utf-8')
def process_item(self, item, spider):
# 此时的item为QsbkItem类型,需要转成字典才可以变成json
text = json.dumps(dict(item), ensure_ascii=False)
self.fp.write(text + '\n')
return item
def close_spider(self, spider):
self.fp.close()
记得要在settings中打开pipelines。
小结:
- 爬虫第一步,对协议说“不”
- response 对象可以执行xpath、css语法来提取数据。
- 提取出来的数据类型可能是Selector或SelectorList ,如果想要获取其中的字符串或字符串列表,应该执行get或getall 方法
- 如果要将数据传给pipelines处理,可以使用yield
- yield 与return 是有区别的,读者可自行百度查阅资料。
原文链接:https://blog.csdn.net/weixin_43521592/java/article/details/106962079
相关推荐
- 团队管理“布阵术”:3招让你的团队战斗力爆表!
-
为何古代军队能够以一当十?为何现代企业有的团队高效似“特种部队”,有的却松散若“游击队”?**答案正隐匿于“布阵术”之中!**今时今日,让我们从古代兵法里萃取3个核心要义,助您塑造一支战斗力爆棚的...
- 知情人士回应字节大模型团队架构调整
-
【知情人士回应字节大模型团队架构调整】财联社2月21日电,针对原谷歌DeepMind副总裁吴永辉加入字节跳动后引发的团队调整问题,知情人士回应称:吴永辉博士主要负责AI基础研究探索工作,偏基础研究;A...
- 豆包大模型团队开源RLHF框架,训练吞吐量最高提升20倍
-
强化学习(RL)对大模型复杂推理能力提升有关键作用,但其复杂的计算流程对训练和部署也带来了巨大挑战。近日,字节跳动豆包大模型团队与香港大学联合提出HybridFlow。这是一个灵活高效的RL/RL...
- 创业团队如何设计股权架构及分配(创业团队如何设计股权架构及分配方案)
-
创业团队的股权架构设计,决定了公司在随后发展中呈现出的股权布局。如果最初的股权架构就存在先天不足,公司就很难顺利、稳定地成长起来。因此,创业之初,对股权设计应慎之又慎,避免留下巨大隐患和风险。两个人如...
- 消息称吴永辉入职后引发字节大模型团队架构大调整
-
2月21日,有消息称前谷歌大佬吴永辉加入字节跳动,并担任大模型团队Seed基础研究负责人后,引发了字节跳动大模型团队架构大调整。多名原本向朱文佳汇报的算法和技术负责人开始转向吴永辉汇报。简单来说,就是...
- 31页组织效能提升模型,经营管理团队搭建框架与权责定位
-
分享职场干货,提升能力!为职场精英打造个人知识体系,升职加薪!31页组织效能提升模型如何拿到分享的源文件:请您关注本头条号,然后私信本头条号“文米”2个字,按照操作流程,专人负责发送源文件给您。...
- 异形柱结构(异形柱结构技术规程)
-
下列关于混凝土异形柱结构设计的说法,其中何项正确?(A)混凝土异形柱框架结构可用于所有非抗震和抗震设防地区的一般居住建筑。(B)抗震设防烈度为6度时,对标准设防类(丙类)采用异形柱结构的建筑可不进行地...
- 职场干货:金字塔原理(金字塔原理实战篇)
-
金字塔原理的适用范围:金字塔原理适用于所有需要构建清晰逻辑框架的文章。第一篇:表达的逻辑。如何利用金字塔原理构建基本的金字塔结构受众(包括读者、听众、观众或学员)最容易理解的顺序:先了解主要的、抽象的...
- 底部剪力法(底部剪力法的基本原理)
-
某四层钢筋混凝土框架结构,计算简图如图1所示。抗震设防类别为丙类,抗震设防烈度为8度(0.2g),Ⅱ类场地,设计地震分组为第一组,第一自振周期T1=0.55s。一至四层的楼层侧向刚度依次为:K1=1...
- 结构等效重力荷载代表值(等效重力荷载系数)
-
某五层钢筋混凝土框架结构办公楼,房屋高度25.45m。抗震设防烈度8度,设防类别丙类,设计基本地震加速度0.2g,设计地震分组第二组,场地类别为Ⅱ类,混凝土强度等级C30。该结构平面和竖向均规则。假定...
- 体系结构已成昭告后世善莫大焉(体系构架是什么意思)
-
实践先行也理论已初步完成框架结构留余后人后世子孙俗话说前人栽树后人乘凉在夏商周大明大清民国共和前人栽树下吾之辈已完成结构体系又俗话说青出于蓝而胜于蓝各个时期任务不同吾辈探索框架结构体系经历有限肯定发展...
- 框架柱抗震构造要求(框架柱抗震设计)
-
某现浇钢筋混凝土框架-剪力墙结构高层办公楼,抗震设防烈度为8度(0.2g),场地类别为Ⅱ类,抗震等级:框架二级,剪力墙一级,混凝土强度等级:框架柱及剪力墙C50,框架梁及楼板C35,纵向钢筋及箍筋均采...
- 梁的刚度、挠度控制(钢梁挠度过大会引起什么原因)
-
某办公楼为现浇钢筋混凝土框架结构,r0=1.0,混凝土强度等级C35,纵向钢筋采用HRB400,箍筋采用HPB300。其二层(中间楼层)的局部平面图和次梁L-1的计算简图如图1~3(Z)所示,其中,K...
- 死要面子!有钱做大玻璃窗,却没有钱做“柱和梁”,不怕房塌吗?
-
活久见,有钱做2层落地大玻璃窗,却没有钱做“柱子和圈梁”,这样的农村自建房,安全吗?最近刷到个魔幻施工现场,如下图,这栋5开间的农村自建房,居然做了2个全景落地窗仔细观察,这2个落地窗还是飘窗,为了追...
- 不是承重墙,物业也不让拆?话说装修就一定要拆墙才行么
-
最近发现好多朋友装修时总想拆墙“爆改”空间,别以为只要避开承重墙就能随便砸!我家楼上邻居去年装修,拆了阳台矮墙想扩客厅,结果物业直接上门叫停。后来才知道,这种配重墙拆了会让阳台承重失衡,整栋楼都可能变...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- MVC框架 (46)
- spring框架 (46)
- 框架图 (58)
- bootstrap框架 (43)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- laravel框架 (46)
- express框架 (43)
- scrapy框架 (52)
- beego框架 (42)
- java框架spring (43)
- grpc框架 (55)
- 前端框架bootstrap (42)
- orm框架有哪些 (43)
- ppt框架 (48)
- 内联框架 (52)
- winform框架 (46)
- gui框架 (44)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)