Scrapy爬虫框架新手入门教程(爬虫框架 python)
ccwgpt 2024-09-27 07:29 99 浏览 0 评论
?Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。
目录
安装
测试
新建工程
创建spider文件(以豆瓣电影为例)
架构(绿线是数据流向)
运作流程(个人理解)
制作步骤
在item中指明爬取字段
编写spider/movie.py
数据存至数据库
其他
最后
安装
pip安装,可能会报错:
pip install Scrapy
anaconda安装,推荐:
conda install -c conda-forge scrapy
测试
scrapy
新建工程
scrapy startproject <工程名>
如
scrapy startproject douban
创建的目录结构
- scrapy.cfg: 项目配置文件
- douban/: 项目python模块, 代码将从这里导入
- douban/items.py: 项目items文件,存要爬取的字段信息,可以插入数据库、写入txt等
- douban/pipelines.py: 项目管道文件,将爬取的数据进行持久化存储
- douban/settings.py: 项目配置文件,可以配置数据库等
- douban/spiders/: 放置spider的目录,也就是你要写逻辑代码的地方
- douban/middlewares:中间件,请求和响应都将经过他,可以配置请求头、代理、cookie、会话维持等
创建spider文件(以豆瓣电影为例)
scrapy genspider <项目名> <爬取域>
如
cd doubanscrapy genspider movie movie.douban.com
将在spiders文件夹下自动创建movie.py,并自动生成内容:
可以看出,要建立一个Spider, 你必须用scrapy.Spider类创建一个子类,并确定了三个强制的属性 和 一个方法。
- name = "" :爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。
- allow_domains = [] :是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的URL会被忽略。
- start_urls = () :爬取的URL元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子URL将会从这些起始URL中继承性生成。
- parse(self, response) :解析的方法,每个初始URL完成下载后将被调用,调用的时候传入从每一个URL传回的Response对象来作为唯一参数,主要作用如下:负责解析返回的网页数据(response.body),提取结构化数据(生成item);生成需要下一页的URL请求。
架构(绿线是数据流向)
- Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
- Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
- Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,
- Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器).
- Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方。
- Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。
- Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)
运作流程(个人理解)
- 用户编写spider并运行
- 将第一个URL传给引擎
- 引擎将URL对应的request传给调度器
- 调度器将request排序入队
- 调度器将处理好的request返回到引擎
- 引擎将request按照下载中间件的设置传给下载器
- 下载器执行request并获得response(如果下载失败,然后引擎告诉调度器,这个request下载失败了,你记录一下,待会儿再下载)
- 下载器将response返回到引擎
- 引擎将request返回到spider用户这(默认交到def parse()这个函数处理)
- spider处理完数据后,将需要跟进的URL和要保存的item传给引擎
- 引擎将item传给管道进行处理保存,并将URL进入下一轮循环
- 只有当调度器中不存在任何request了,整个程序才会停止,(也就是说,对于下载失败的URL,Scrapy也会重新下载。)
制作步骤
- 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目
- 明确目标 (编写items.py):明确你想要抓取的目标
- 制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页
- 存储内容 (pipelines.py):设计管道存储爬取内容
在item中指明爬取字段
如“名称”、“评分”、“简介”
- Item 定义结构化数据字段,用来保存爬取到的数据,有点像 Python 中的 dict,但是提供了一些额外的保护减少错误。
- 可以通过创建一个 scrapy.Item 类, 并且定义类型为 scrapy.Field 的类属性来定义一个 Item(可以理解成类似于 ORM 的映射关系)。
在item.py中修改为:
class DoubanItem(scrapy.Item):
name = scrapy.Field()
rating_num = scrapy.Field()
quote = scrapy.Field()
编写spider/movie.py
1、选择目标的xpath(也可以css等其他选择器)
2、提取出公共部分
3、由于豆瓣有反爬验证,因此需要加上header
def start_requests(self):
url = 'http://movie.douban.com/top250/'
yield scrapy.Request(url, headers=self.headers)
通过start_requests函数,对于运行后第一次访问请求,就加上了请求头。因此,start_urls其实也可以不加。
4、为了方便调试,新建spider/main.py,并写入
from scrapy.cmdline import execute
execute(["scrapy", "crawl", "movie", "-o", "item.json"])
5、测试一下效果
class MovieSpider(scrapy.Spider):
name = 'movie'
allowed_domains = ['movie.douban.com/top250']
start_urls = ['http://movie.douban.com/top250/']
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'}
def start_requests(self):
url = 'http://movie.douban.com/top250/'
yield scrapy.Request(url, headers=self.headers)
def parse(self, response):
for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
print(each.xpath('./div/div[2]/div[1]/a/span[1]').extract())
运行main.py
要提取中间的文字,则在xpath后面再添加“/text()”
6、类似地,完善parse()函数
from ..items import DoubanItem
def parse(self, response):
# 将得到的数据封装到一个DoubanItem对象,就是在items.py里的
item = DoubanItem()
for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first()
rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first()
quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first()
item['name'] = name
item['rating_num'] = rating_num
item['quote'] = quote
yield item
7、运行main.py后,在spider/item.json里将看到爬取的数据,以Unicode字符形式。
8、还可以保存为其他形式,如csv、xml,只需将item.json改为item.csv等。
数据存至数据库
1、建库建表
mysql -uroot -p
Enter password:
create database scrapy;
use scrapy;
create table movie(id int auto_increment primary key, name varchar(255),rating varchar(10), quote varchar(255))default charset=utf8;
2、在setting.py中配置数据库连接
mysql_movie = {
'host': "127.0.0.1",
"port": 3306,
"user": "root",
"password": "pwd",
"db": "scrapy"
}
3、在setting.py中将以下内容取消注释
4、在pipelines.py中连接数据库存储数据
pip install pymysql
# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
from .settings import mysql_movie
import pymysql
class DoubanPipeline:
def __init__(self):
self.host = mysql_movie["host"]
self.port = mysql_movie["port"]
self.user = mysql_movie["user"]
self.password = mysql_movie["password"]
self.db = mysql_movie["db"]
self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user, password=self.password, db=self.db, charset='utf8')
self.cursor = self.conn.cursor()
def process_item(self, item, spider):
sql ='''insert into movie(name, rating, quote)values('%s','%s','%s')''' % (item["name"], item["rating_num"], item["quote"])
try:
self.cursor.execute(sql)
self.conn.commit()
except:
self.conn.rollback()
return item
5、运行main.py后,查询数据库
select * from movie;
其他
URL跟进(翻页);在parse函数最后,跟新以下URL,scrapy框架会自动发起下一次请求
def parse(self, response):
# 将得到的数据封装到一个DoubanItem对象
item = DoubanItem()
for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first()
rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first()
quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first()
item['name'] = name
item['rating_num'] = rating_num
item['quote'] = quote
yield item
next_url = response.xpath('//*[@id="content"]/div/div[1]/div[2]/span[3]/link/@href').extract()
if next_url:
next_url = 'https://movie.douban.com/top250' + next_url[0]
print(next_url)
yield scrapy.Request(next_url, headers=self.headers)
为了做一个乖爬虫,且避免面向监狱编程,建议在setting.py至少开启以下两项:
最后
相信你跟我一样,过完本文,对scrapy已经有了一个大致的了解。
相关推荐
- 团队管理“布阵术”:3招让你的团队战斗力爆表!
-
为何古代军队能够以一当十?为何现代企业有的团队高效似“特种部队”,有的却松散若“游击队”?**答案正隐匿于“布阵术”之中!**今时今日,让我们从古代兵法里萃取3个核心要义,助您塑造一支战斗力爆棚的...
- 知情人士回应字节大模型团队架构调整
-
【知情人士回应字节大模型团队架构调整】财联社2月21日电,针对原谷歌DeepMind副总裁吴永辉加入字节跳动后引发的团队调整问题,知情人士回应称:吴永辉博士主要负责AI基础研究探索工作,偏基础研究;A...
- 豆包大模型团队开源RLHF框架,训练吞吐量最高提升20倍
-
强化学习(RL)对大模型复杂推理能力提升有关键作用,但其复杂的计算流程对训练和部署也带来了巨大挑战。近日,字节跳动豆包大模型团队与香港大学联合提出HybridFlow。这是一个灵活高效的RL/RL...
- 创业团队如何设计股权架构及分配(创业团队如何设计股权架构及分配方案)
-
创业团队的股权架构设计,决定了公司在随后发展中呈现出的股权布局。如果最初的股权架构就存在先天不足,公司就很难顺利、稳定地成长起来。因此,创业之初,对股权设计应慎之又慎,避免留下巨大隐患和风险。两个人如...
- 消息称吴永辉入职后引发字节大模型团队架构大调整
-
2月21日,有消息称前谷歌大佬吴永辉加入字节跳动,并担任大模型团队Seed基础研究负责人后,引发了字节跳动大模型团队架构大调整。多名原本向朱文佳汇报的算法和技术负责人开始转向吴永辉汇报。简单来说,就是...
- 31页组织效能提升模型,经营管理团队搭建框架与权责定位
-
分享职场干货,提升能力!为职场精英打造个人知识体系,升职加薪!31页组织效能提升模型如何拿到分享的源文件:请您关注本头条号,然后私信本头条号“文米”2个字,按照操作流程,专人负责发送源文件给您。...
- 异形柱结构(异形柱结构技术规程)
-
下列关于混凝土异形柱结构设计的说法,其中何项正确?(A)混凝土异形柱框架结构可用于所有非抗震和抗震设防地区的一般居住建筑。(B)抗震设防烈度为6度时,对标准设防类(丙类)采用异形柱结构的建筑可不进行地...
- 职场干货:金字塔原理(金字塔原理实战篇)
-
金字塔原理的适用范围:金字塔原理适用于所有需要构建清晰逻辑框架的文章。第一篇:表达的逻辑。如何利用金字塔原理构建基本的金字塔结构受众(包括读者、听众、观众或学员)最容易理解的顺序:先了解主要的、抽象的...
- 底部剪力法(底部剪力法的基本原理)
-
某四层钢筋混凝土框架结构,计算简图如图1所示。抗震设防类别为丙类,抗震设防烈度为8度(0.2g),Ⅱ类场地,设计地震分组为第一组,第一自振周期T1=0.55s。一至四层的楼层侧向刚度依次为:K1=1...
- 结构等效重力荷载代表值(等效重力荷载系数)
-
某五层钢筋混凝土框架结构办公楼,房屋高度25.45m。抗震设防烈度8度,设防类别丙类,设计基本地震加速度0.2g,设计地震分组第二组,场地类别为Ⅱ类,混凝土强度等级C30。该结构平面和竖向均规则。假定...
- 体系结构已成昭告后世善莫大焉(体系构架是什么意思)
-
实践先行也理论已初步完成框架结构留余后人后世子孙俗话说前人栽树后人乘凉在夏商周大明大清民国共和前人栽树下吾之辈已完成结构体系又俗话说青出于蓝而胜于蓝各个时期任务不同吾辈探索框架结构体系经历有限肯定发展...
- 框架柱抗震构造要求(框架柱抗震设计)
-
某现浇钢筋混凝土框架-剪力墙结构高层办公楼,抗震设防烈度为8度(0.2g),场地类别为Ⅱ类,抗震等级:框架二级,剪力墙一级,混凝土强度等级:框架柱及剪力墙C50,框架梁及楼板C35,纵向钢筋及箍筋均采...
- 梁的刚度、挠度控制(钢梁挠度过大会引起什么原因)
-
某办公楼为现浇钢筋混凝土框架结构,r0=1.0,混凝土强度等级C35,纵向钢筋采用HRB400,箍筋采用HPB300。其二层(中间楼层)的局部平面图和次梁L-1的计算简图如图1~3(Z)所示,其中,K...
- 死要面子!有钱做大玻璃窗,却没有钱做“柱和梁”,不怕房塌吗?
-
活久见,有钱做2层落地大玻璃窗,却没有钱做“柱子和圈梁”,这样的农村自建房,安全吗?最近刷到个魔幻施工现场,如下图,这栋5开间的农村自建房,居然做了2个全景落地窗仔细观察,这2个落地窗还是飘窗,为了追...
- 不是承重墙,物业也不让拆?话说装修就一定要拆墙才行么
-
最近发现好多朋友装修时总想拆墙“爆改”空间,别以为只要避开承重墙就能随便砸!我家楼上邻居去年装修,拆了阳台矮墙想扩客厅,结果物业直接上门叫停。后来才知道,这种配重墙拆了会让阳台承重失衡,整栋楼都可能变...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- MVC框架 (46)
- spring框架 (46)
- 框架图 (58)
- bootstrap框架 (43)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- laravel框架 (46)
- express框架 (43)
- scrapy框架 (52)
- beego框架 (42)
- java框架spring (43)
- grpc框架 (55)
- 前端框架bootstrap (42)
- orm框架有哪些 (43)
- ppt框架 (48)
- 内联框架 (52)
- winform框架 (46)
- gui框架 (44)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)