百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

scrapy爬虫框架入门须知(爬虫基本框架)

ccwgpt 2024-09-27 07:29 111 浏览 0 评论

scrapy是一款开源的框架,用来爬取互联网上的数据,它非常流行。但是看了官方文档的入门示例后,我在开始动手编写自己的爬虫时仍然遇到不少困惑的问题,这里整理如下。

如何使用多级request并传递参数?

官方文档的入门实例只需要一个request就爬到了所需的数据,但是实际情况往往更加复杂,就像要爬取下面这样的数据,往往需要多次请求才能做到,而且需要把上一级爬取的信息(如设备类型)传递到下一级最终才能得到想要爬取的完整数据。

parse方法是scrapy默认的request回调响应,如果需要多级request则需要定义多个回调方法,通过上一级的yield scrapy.Request中的callback参数进行指定,同时通过meta参数进行数据传递,示例如下:

def parse(self, response):
	... //省略干扰代码
	yield scrapy.Request(url=url, meta={"device_type": device_type}, 
							callback=self.parse_component)
		
def parse_component(self, response):
	... //省略干扰代码
	device_type = response.meta["device_type"]   # 通过response.meta提取传递的参数
	yield scrapy.Request(url=url, meta={"device_type": device_type,"device_title": device_title}, 
								callback=self.parse_asset)

def parse_asset(self, response):
	... //省略干扰代码
	device_type = response.meta["device_type"]  # 通过response.meta提取传递的参数
	device_title = response.meta["device_title"]    # 通过response.meta提取传递的参数
	item = ZoomeyeSipderItem()
	item["device_type"] = device_type
	item["device_title"] = device_title
	item["ip"] = ip
	item["port"] = port["port"]
	item["service"] = port["service"]
	item["banner"] = port["banner"]
	yield item

如何爬取动态页面的数据?

现在大部分的站点都是动态站点了,也就是站点的页面并不是事先就准备好的,而根据用户使用过程中实时地请求服务器数据动态生成的页面,这样的站点如果直接爬取站点URL的话一般不会得到所需的数据。

通过结合selenium自动化框架直接操作页面去爬取是可行的方法,另外一种可行的办法是通过浏览器开发工具分析找到其中的XHR请求,找到那个返回所需要数据的api接口,在scrapy爬虫代码中直接请求api接口的URL进行爬取,不过这种方式需要作一番细致的分析,因为往往URL中的查询参数并不是那么直观就能得到,而且因爬取的站点不同而情况各异。

如何爬取需要验证码登录的站点?

很多要爬取的站点都是需要账户登录成功后才能正常使用的,大部分站点登录都需要输入动态验证码,这其实就是一种防爬的机制,遇到这样的情况该怎么办呢?

这里需要稍微了解下cookie的知识,首先我们需要明白的一点是站点服务方绝对不傻到任何页面操作都要进行一次登录,因为那样太影响用户体验了,因此我们登录一次站点后登录的状态就会被记录下来,接下来的操作就不用再次登录了,至少一段时间内不再需要反复登录。这种记录登录状态的能力是通过cookie来实现的,cookie是站点服务器根据你的登录认证生成的一串字符并记录到你的浏览器中,在浏览器开发工具应用程序标签可以找到。别人看到你的cookie并不会知道你的账号和密码,但是如果别人知道了你的cookie就可以在请求中携带这个cookie来冒充你,所以一定不要泄露你的cookie信息。

爬取需要登录的站点思路就是首先手工登录到站点,然后找到cookie,在scrapy的request请求中携带cookie来进行用户认证,大部分情况下你会看到cookie不止一条,如果无法确认那一条是用户认证相关的,就把所有的cookie都复制下来使用。

  • 如果是GET请求,cookies通过scrapy.Request中的cookies参数传入,示例:
def start_requests(self):
	headers = {
	  "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36 Edg/92.0.902.78",
	}
	#具体的key和value以实际查看的cookie为准,代码中去掉的敏感的value值
	cookies = {
	  "Q_UDID": "...",
	  "quCryptCode": "...",
	  "cert_common": "...",
	}
	start_urls = [
	  'https://quake.360.cn/api/product/catalog',
	]
	for url in start_urls:
		yield scrapy.Request(url=url, headers=self.headers, cookies=self.cookies, callback=self.parse)
  • 如果是post请求,cookies通过header
def parse(self, response):
	... //省略干扰代码
	post_headers = {
	'Content-Type': 'application/json',
	'Cookie': 'cert_common=xxxxxx', # 具体的cookie以实际查看结果为准
	}
	yield scrapy.Request(url=url, body=payload, method="POST", 
				 meta={"product_name": product_name},
				 headers=post_headers, callback=self.parse_asset)

如何控制爬取的速度

站点防爬的机制很多,大部分都会检测请求的频繁情况,如果站点检测到一段时间内的请求过多就会进行限速、要求重新输入验证码、封禁ip等措施,一般可以考虑下面的配置项进行爬虫的速度限制。

# Configure maximum concurrent requests performed by Scrapy (default: 16)

# 限制并发请求数

CONCURRENT_REQUESTS = 2


# 自动限速扩展

# Enable and configure the AutoThrottle extension (disabled by default)

# See https://docs.scrapy.org/en/latest/topics/autothrottle.html

# 启用自动限速

AUTOTHROTTLE_ENABLED = True

# The initial download delay

# 初始下载延迟(单位:秒) 默认是5秒

AUTOTHROTTLE_START_DELAY = 10

# The maximum download delay to be set in case of high latencies

# 在高延迟情况下最大的下载延迟(单位秒) 默认60秒

AUTOTHROTTLE_MAX_DELAY = 120

# The average number of requests Scrapy should be sending in parallel to

# each remote server

# 平均每个远程网站的并发请求

AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0

相关推荐

十分钟让你学会LNMP架构负载均衡(impala负载均衡)

业务架构、应用架构、数据架构和技术架构一、几个基本概念1、pv值pv值(pageviews):页面的浏览量概念:一个网站的所有页面,在一天内,被浏览的总次数。(大型网站通常是上千万的级别)2、u...

AGV仓储机器人调度系统架构(agv物流机器人)

系统架构层次划分采用分层模块化设计,分为以下五层:1.1用户接口层功能:提供人机交互界面(Web/桌面端),支持任务下发、实时监控、数据可视化和报警管理。模块:任务管理面板:接收订单(如拣货、...

远程热部署在美团的落地实践(远程热点是什么意思)

Sonic是美团内部研发设计的一款用于热部署的IDEA插件,本文其实现原理及落地的一些技术细节。在阅读本文之前,建议大家先熟悉一下Spring源码、SpringMVC源码、SpringBoot...

springboot搭建xxl-job(分布式任务调度系统)

一、部署xxl-job服务端下载xxl-job源码:https://gitee.com/xuxueli0323/xxl-job二、导入项目、创建xxl_job数据库、修改配置文件为自己的数据库三、启动...

大模型:使用vLLM和Ray分布式部署推理应用

一、vLLM:面向大模型的高效推理框架1.核心特点专为推理优化:专注于大模型(如GPT-3、LLaMA)的高吞吐量、低延迟推理。关键技术:PagedAttention:类似操作系统内存分页管理,将K...

国产开源之光【分布式工作流调度系统】:DolphinScheduler

DolphinScheduler是一个开源的分布式工作流调度系统,旨在帮助用户以可靠、高效和可扩展的方式管理和调度大规模的数据处理工作流。它支持以图形化方式定义和管理工作流,提供了丰富的调度功能和监控...

简单可靠高效的分布式任务队列系统

#记录我的2024#大家好,又见面了,我是GitHub精选君!背景介绍在系统访问量逐渐增大,高并发、分布式系统成为了企业技术架构升级的必由之路。在这样的背景下,异步任务队列扮演着至关重要的角色,...

虚拟服务器之间如何分布式运行?(虚拟服务器部署)

  在云计算和虚拟化技术快速发展的今天,传统“单机单任务”的服务器架构早已难以满足现代业务对高并发、高可用、弹性伸缩和容错容灾的严苛要求。分布式系统应运而生,并成为支撑各类互联网平台、企业信息系统和A...

一文掌握 XXL-Job 的 6 大核心组件

XXL-Job是一个分布式任务调度平台,其核心组件主要包括以下部分,各组件相互协作实现高效的任务调度与管理:1.调度注册中心(RegistryCenter)作用:负责管理调度器(Schedule...

京东大佬问我,SpringBoot中如何做延迟队列?单机与分布式如何做?

京东大佬问我,SpringBoot中如何做延迟队列?单机如何做?分布式如何做呢?并给出案例与代码分析。嗯,用户问的是在SpringBoot中如何实现延迟队列,单机和分布式环境下分别怎么做。这个问题其实...

企业级项目组件选型(一)分布式任务调度平台

官网地址:https://www.xuxueli.com/xxl-job/能力介绍架构图安全性为提升系统安全性,调度中心和执行器进行安全性校验,双方AccessToken匹配才允许通讯;调度中心和执...

python多进程的分布式任务调度应用场景及示例

多进程的分布式任务调度可以应用于以下场景:分布式爬虫:importmultiprocessingimportrequestsdefcrawl(url):response=re...

SpringBoot整合ElasticJob实现分布式任务调度

介绍ElasticJob是面向互联网生态和海量任务的分布式调度解决方案,由两个相互独立的子项目ElasticJob-Lite和ElasticJob-Cloud组成。它通过弹性调度、资源管控、...

分布式可视化 DAG 任务调度系统 Taier 的整体流程分析

Taier作为袋鼠云的开源项目之一,是一个分布式可视化的DAG任务调度系统。旨在降低ETL开发成本,提高大数据平台稳定性,让大数据开发人员可以在Taier直接进行业务逻辑的开发,而不用关...

SpringBoot任务调度:@Scheduled与TaskExecutor全面解析

一、任务调度基础概念1.1什么是任务调度任务调度是指按照预定的时间计划或特定条件自动执行任务的过程。在现代应用开发中,任务调度扮演着至关重要的角色,它使得开发者能够自动化处理周期性任务、定时任务和异...

取消回复欢迎 发表评论: