百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

scrapy爬虫框架入门须知(爬虫基本框架)

ccwgpt 2024-09-27 07:29 122 浏览 0 评论

scrapy是一款开源的框架,用来爬取互联网上的数据,它非常流行。但是看了官方文档的入门示例后,我在开始动手编写自己的爬虫时仍然遇到不少困惑的问题,这里整理如下。

如何使用多级request并传递参数?

官方文档的入门实例只需要一个request就爬到了所需的数据,但是实际情况往往更加复杂,就像要爬取下面这样的数据,往往需要多次请求才能做到,而且需要把上一级爬取的信息(如设备类型)传递到下一级最终才能得到想要爬取的完整数据。

parse方法是scrapy默认的request回调响应,如果需要多级request则需要定义多个回调方法,通过上一级的yield scrapy.Request中的callback参数进行指定,同时通过meta参数进行数据传递,示例如下:

def parse(self, response):
	... //省略干扰代码
	yield scrapy.Request(url=url, meta={"device_type": device_type}, 
							callback=self.parse_component)
		
def parse_component(self, response):
	... //省略干扰代码
	device_type = response.meta["device_type"]   # 通过response.meta提取传递的参数
	yield scrapy.Request(url=url, meta={"device_type": device_type,"device_title": device_title}, 
								callback=self.parse_asset)

def parse_asset(self, response):
	... //省略干扰代码
	device_type = response.meta["device_type"]  # 通过response.meta提取传递的参数
	device_title = response.meta["device_title"]    # 通过response.meta提取传递的参数
	item = ZoomeyeSipderItem()
	item["device_type"] = device_type
	item["device_title"] = device_title
	item["ip"] = ip
	item["port"] = port["port"]
	item["service"] = port["service"]
	item["banner"] = port["banner"]
	yield item

如何爬取动态页面的数据?

现在大部分的站点都是动态站点了,也就是站点的页面并不是事先就准备好的,而根据用户使用过程中实时地请求服务器数据动态生成的页面,这样的站点如果直接爬取站点URL的话一般不会得到所需的数据。

通过结合selenium自动化框架直接操作页面去爬取是可行的方法,另外一种可行的办法是通过浏览器开发工具分析找到其中的XHR请求,找到那个返回所需要数据的api接口,在scrapy爬虫代码中直接请求api接口的URL进行爬取,不过这种方式需要作一番细致的分析,因为往往URL中的查询参数并不是那么直观就能得到,而且因爬取的站点不同而情况各异。

如何爬取需要验证码登录的站点?

很多要爬取的站点都是需要账户登录成功后才能正常使用的,大部分站点登录都需要输入动态验证码,这其实就是一种防爬的机制,遇到这样的情况该怎么办呢?

这里需要稍微了解下cookie的知识,首先我们需要明白的一点是站点服务方绝对不傻到任何页面操作都要进行一次登录,因为那样太影响用户体验了,因此我们登录一次站点后登录的状态就会被记录下来,接下来的操作就不用再次登录了,至少一段时间内不再需要反复登录。这种记录登录状态的能力是通过cookie来实现的,cookie是站点服务器根据你的登录认证生成的一串字符并记录到你的浏览器中,在浏览器开发工具应用程序标签可以找到。别人看到你的cookie并不会知道你的账号和密码,但是如果别人知道了你的cookie就可以在请求中携带这个cookie来冒充你,所以一定不要泄露你的cookie信息。

爬取需要登录的站点思路就是首先手工登录到站点,然后找到cookie,在scrapy的request请求中携带cookie来进行用户认证,大部分情况下你会看到cookie不止一条,如果无法确认那一条是用户认证相关的,就把所有的cookie都复制下来使用。

  • 如果是GET请求,cookies通过scrapy.Request中的cookies参数传入,示例:
def start_requests(self):
	headers = {
	  "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36 Edg/92.0.902.78",
	}
	#具体的key和value以实际查看的cookie为准,代码中去掉的敏感的value值
	cookies = {
	  "Q_UDID": "...",
	  "quCryptCode": "...",
	  "cert_common": "...",
	}
	start_urls = [
	  'https://quake.360.cn/api/product/catalog',
	]
	for url in start_urls:
		yield scrapy.Request(url=url, headers=self.headers, cookies=self.cookies, callback=self.parse)
  • 如果是post请求,cookies通过header
def parse(self, response):
	... //省略干扰代码
	post_headers = {
	'Content-Type': 'application/json',
	'Cookie': 'cert_common=xxxxxx', # 具体的cookie以实际查看结果为准
	}
	yield scrapy.Request(url=url, body=payload, method="POST", 
				 meta={"product_name": product_name},
				 headers=post_headers, callback=self.parse_asset)

如何控制爬取的速度

站点防爬的机制很多,大部分都会检测请求的频繁情况,如果站点检测到一段时间内的请求过多就会进行限速、要求重新输入验证码、封禁ip等措施,一般可以考虑下面的配置项进行爬虫的速度限制。

# Configure maximum concurrent requests performed by Scrapy (default: 16)

# 限制并发请求数

CONCURRENT_REQUESTS = 2


# 自动限速扩展

# Enable and configure the AutoThrottle extension (disabled by default)

# See https://docs.scrapy.org/en/latest/topics/autothrottle.html

# 启用自动限速

AUTOTHROTTLE_ENABLED = True

# The initial download delay

# 初始下载延迟(单位:秒) 默认是5秒

AUTOTHROTTLE_START_DELAY = 10

# The maximum download delay to be set in case of high latencies

# 在高延迟情况下最大的下载延迟(单位秒) 默认60秒

AUTOTHROTTLE_MAX_DELAY = 120

# The average number of requests Scrapy should be sending in parallel to

# each remote server

# 平均每个远程网站的并发请求

AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0

相关推荐

公司组织架构及部门职责#管理制度 #薪酬绩效 #组织架构

...

终于把“公司组织架构与管理部岗位配置”整理好了,拿来即用!

...

老板看完这份“公司组织架构详解”就解放了!

...

丨公司丨公司大架构整理汇总

注:本文转自团队成员原创作品,特此鸣谢(公号:法海图鉴)今日话题公司大架构整理背景介绍经过前几期话题对各种企业类型的介绍,想必大家已经有了初步认识。之后我将带着大家开启对公司的深入了解。本期...

图解物理--八年级物理下册最全知识框架导图

第七章力1力2弹力3重力第八章运动和力1牛顿第一定律2二力平衡3摩擦力第九章压强1压强2液体压强3大气压强4流体压强与流速的关系第十章浮力1浮力2阿基米德原理3物体的浮沉条件及应用第十一章功...

八年级上册生物,思维导图,期末高分必备资料,家长收藏

这是八年级上册生物的思维导图,孩子在背诵知识点的时候,可以看一下知识点在导图中的位置,形成对知识点整体的把握,有助于学生拿高分,特别是图片中带红色星星的部分,更是要注意背诵,是重点内容。家长可以把图片...

2019政府工作报告精华,这张思维导图里全都有

每经记者:李可愚每经编辑:陈星每日经济新闻

图解薪酬体系结构设计

...

司考复习独家总结!一张图总结行政法知识结构体系

作为三大实体法之一,行政法的分值在60分左右,行政法在司法考试中一直比较平稳常规,没有偏题怪题,还是比较容易得分的。小编要提醒大家,在3月之前要把三大实体法学习一遍。下图是厚大在线360导学师小周总结...

一图读懂香港国安新架构:各职位人选公布 有官员曾强硬喊话乱港分子

实用干货!高中物理框架图,让零碎知识“串联”起来

高中物理学习一定要抓好逻辑结构大框架!了解整个知识框架体系后,更易抓住骨干知识,干掉重难知识点~今天给大家分享高中物理的框架图同学们赶紧收藏起来吧!力学知识结构图光学知识结构图热学、原子物理知识结构图...

254m超高层办公楼型钢砼框架-核心筒结构图

高度类别:超高层建筑钢筋混凝土结构:框架,框架核心筒钢结构:钢框架建筑功能:办公包含:办公楼57层(-3层)254.150m钻孔灌注桩桩+筏板型钢混凝土框架-钢筋混凝土核心筒西裙房2层(-...

砖混结构与框架结构,究竟有何区别?千万别被坑!

现在买房装修的人最怕啥?不是价格高,而是房子不安全!两种主流建筑结构,砖混靠墙,框架靠柱子,选错了隔墙都可能要命。简单说,砖混便宜但别碰高层,框架贵点但能保命。砖混那些承重墙根本不能拆,想砸墙改个开放...

大师一百——高中化学必考:《元素周期律》考点框架图

今天大师给大家带来的是高中化学的《元素周期律》考点框架图,高中的同学必须牢记于心,这种重要的考点,考试是一定会考的!化学大师...

需求分析框架图

需求分析框架图

取消回复欢迎 发表评论: