百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Scrapy爬虫框架新手入门教程(爬虫框架 python)

ccwgpt 2024-09-27 07:29 113 浏览 0 评论

?Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。




目录

安装

测试

新建工程

创建spider文件(以豆瓣电影为例)

架构(绿线是数据流向)

运作流程(个人理解)

制作步骤

在item中指明爬取字段

编写spider/movie.py

数据存至数据库

其他

最后


安装

pip安装,可能会报错:

pip install Scrapy

anaconda安装,推荐:

conda install -c conda-forge scrapy

测试

scrapy

新建工程

scrapy startproject <工程名>

scrapy startproject douban

创建的目录结构

  • scrapy.cfg: 项目配置文件
  • douban/: 项目python模块, 代码将从这里导入
  • douban/items.py: 项目items文件,存要爬取的字段信息,可以插入数据库、写入txt等
  • douban/pipelines.py: 项目管道文件,将爬取的数据进行持久化存储
  • douban/settings.py: 项目配置文件,可以配置数据库等
  • douban/spiders/: 放置spider的目录,也就是你要写逻辑代码的地方
  • douban/middlewares:中间件,请求和响应都将经过他,可以配置请求头、代理、cookie、会话维持等


创建spider文件(以豆瓣电影为例)

scrapy genspider <项目名> <爬取域>

cd doubanscrapy genspider movie movie.douban.com

将在spiders文件夹下自动创建movie.py,并自动生成内容:

可以看出,要建立一个Spider, 你必须用scrapy.Spider类创建一个子类,并确定了三个强制的属性 和 一个方法

  • name = "" :爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。
  • allow_domains = [] :是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的URL会被忽略。
  • start_urls = () :爬取的URL元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子URL将会从这些起始URL中继承性生成。
  • parse(self, response) :解析的方法,每个初始URL完成下载后将被调用,调用的时候传入从每一个URL传回的Response对象来作为唯一参数,主要作用如下:负责解析返回的网页数据(response.body),提取结构化数据(生成item);生成需要下一页的URL请求。

架构(绿线是数据流向)


  • Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
  • Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
  • Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,
  • Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器).
  • Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方。
  • Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。
  • Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

运作流程(个人理解)

  • 用户编写spider并运行
  • 将第一个URL传给引擎
  • 引擎将URL对应的request传给调度器
  • 调度器将request排序入队
  • 调度器将处理好的request返回到引擎
  • 引擎将request按照下载中间件的设置传给下载器
  • 下载器执行request并获得response(如果下载失败,然后引擎告诉调度器,这个request下载失败了,你记录一下,待会儿再下载)
  • 下载器将response返回到引擎
  • 引擎将request返回到spider用户这(默认交到def parse()这个函数处理)
  • spider处理完数据后,将需要跟进的URL和要保存的item传给引擎
  • 引擎将item传给管道进行处理保存,并将URL进入下一轮循环
  • 只有当调度器中不存在任何request了,整个程序才会停止,(也就是说,对于下载失败的URL,Scrapy也会重新下载。)

制作步骤

  1. 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目
  2. 明确目标 (编写items.py):明确你想要抓取的目标
  3. 制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页
  4. 存储内容 (pipelines.py):设计管道存储爬取内容

在item中指明爬取字段

如“名称”、“评分”、“简介”

  • Item 定义结构化数据字段,用来保存爬取到的数据,有点像 Python 中的 dict,但是提供了一些额外的保护减少错误。
  • 可以通过创建一个 scrapy.Item 类, 并且定义类型为 scrapy.Field 的类属性来定义一个 Item(可以理解成类似于 ORM 的映射关系)。

在item.py中修改为:

class DoubanItem(scrapy.Item):
    name = scrapy.Field()
    rating_num = scrapy.Field()
    quote = scrapy.Field()

编写spider/movie.py

1、选择目标的xpath(也可以css等其他选择器)

2、提取出公共部分


3、由于豆瓣有反爬验证,因此需要加上header

def start_requests(self):
    url = 'http://movie.douban.com/top250/'
    yield scrapy.Request(url, headers=self.headers)

通过start_requests函数,对于运行后第一次访问请求,就加上了请求头。因此,start_urls其实也可以不加。


4、为了方便调试,新建spider/main.py,并写入

from scrapy.cmdline import execute
execute(["scrapy", "crawl", "movie", "-o", "item.json"])


5、测试一下效果

class MovieSpider(scrapy.Spider):
    name = 'movie'
    allowed_domains = ['movie.douban.com/top250']
    start_urls = ['http://movie.douban.com/top250/']
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'}

    def start_requests(self):
        url = 'http://movie.douban.com/top250/'
        yield scrapy.Request(url, headers=self.headers)

    def parse(self, response):
        for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
            print(each.xpath('./div/div[2]/div[1]/a/span[1]').extract())

运行main.py

要提取中间的文字,则在xpath后面再添加“/text()”


6、类似地,完善parse()函数

from ..items import DoubanItem
def parse(self, response):
    # 将得到的数据封装到一个DoubanItem对象,就是在items.py里的
    item = DoubanItem()
    for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
        name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first()
        rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first()
        quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first()
        item['name'] = name
        item['rating_num'] = rating_num
        item['quote'] = quote
        yield item


7、运行main.py后,在spider/item.json里将看到爬取的数据,以Unicode字符形式。


8、还可以保存为其他形式,如csv、xml,只需将item.json改为item.csv等。


数据存至数据库

1、建库建表

mysql -uroot -p 
Enter password:
create database scrapy;
use scrapy;
create table movie(id int auto_increment primary key, name varchar(255),rating varchar(10), quote varchar(255))default charset=utf8;


2、在setting.py中配置数据库连接

mysql_movie = {
    'host': "127.0.0.1",
    "port": 3306,
    "user": "root",
    "password": "pwd",
    "db": "scrapy"
}


3、在setting.py中将以下内容取消注释


4、在pipelines.py中连接数据库存储数据

pip install pymysql
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html

from .settings import mysql_movie
import pymysql

class DoubanPipeline:
    def __init__(self):
        self.host = mysql_movie["host"]
        self.port = mysql_movie["port"]
        self.user = mysql_movie["user"]
        self.password = mysql_movie["password"]
        self.db = mysql_movie["db"]
        self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user, password=self.password, db=self.db, charset='utf8')
        self.cursor = self.conn.cursor()

    def process_item(self, item, spider):
        sql ='''insert into movie(name, rating, quote)values('%s','%s','%s')''' % (item["name"], item["rating_num"], item["quote"])
        try:
            self.cursor.execute(sql)
            self.conn.commit()
        except:
            self.conn.rollback()
        return item


5、运行main.py后,查询数据库

select * from movie;


其他

URL跟进(翻页);在parse函数最后,跟新以下URL,scrapy框架会自动发起下一次请求

def parse(self, response):
    # 将得到的数据封装到一个DoubanItem对象
    item = DoubanItem()
    for each in response.xpath('//*[@id="content"]/div/div[1]/ol/li'):
        name = each.xpath('./div/div[2]/div[1]/a/span[1]/text()').extract_first()
        rating_num = each.xpath('./div/div[2]/div[2]/div/span[2]/text()').extract_first()
        quote = each.xpath('./div/div[2]/div[2]/p[2]/span/text()').extract_first()
        item['name'] = name
        item['rating_num'] = rating_num
        item['quote'] = quote
        yield item
    next_url = response.xpath('//*[@id="content"]/div/div[1]/div[2]/span[3]/link/@href').extract()
   if next_url:
       next_url = 'https://movie.douban.com/top250' + next_url[0]
       print(next_url)
       yield scrapy.Request(next_url, headers=self.headers)

为了做一个乖爬虫,且避免面向监狱编程,建议在setting.py至少开启以下两项:

最后

相信你跟我一样,过完本文,对scrapy已经有了一个大致的了解。

相关推荐

公司组织架构及部门职责#管理制度 #薪酬绩效 #组织架构

...

终于把“公司组织架构与管理部岗位配置”整理好了,拿来即用!

...

老板看完这份“公司组织架构详解”就解放了!

...

丨公司丨公司大架构整理汇总

注:本文转自团队成员原创作品,特此鸣谢(公号:法海图鉴)今日话题公司大架构整理背景介绍经过前几期话题对各种企业类型的介绍,想必大家已经有了初步认识。之后我将带着大家开启对公司的深入了解。本期...

图解物理--八年级物理下册最全知识框架导图

第七章力1力2弹力3重力第八章运动和力1牛顿第一定律2二力平衡3摩擦力第九章压强1压强2液体压强3大气压强4流体压强与流速的关系第十章浮力1浮力2阿基米德原理3物体的浮沉条件及应用第十一章功...

八年级上册生物,思维导图,期末高分必备资料,家长收藏

这是八年级上册生物的思维导图,孩子在背诵知识点的时候,可以看一下知识点在导图中的位置,形成对知识点整体的把握,有助于学生拿高分,特别是图片中带红色星星的部分,更是要注意背诵,是重点内容。家长可以把图片...

2019政府工作报告精华,这张思维导图里全都有

每经记者:李可愚每经编辑:陈星每日经济新闻

图解薪酬体系结构设计

...

司考复习独家总结!一张图总结行政法知识结构体系

作为三大实体法之一,行政法的分值在60分左右,行政法在司法考试中一直比较平稳常规,没有偏题怪题,还是比较容易得分的。小编要提醒大家,在3月之前要把三大实体法学习一遍。下图是厚大在线360导学师小周总结...

一图读懂香港国安新架构:各职位人选公布 有官员曾强硬喊话乱港分子

实用干货!高中物理框架图,让零碎知识“串联”起来

高中物理学习一定要抓好逻辑结构大框架!了解整个知识框架体系后,更易抓住骨干知识,干掉重难知识点~今天给大家分享高中物理的框架图同学们赶紧收藏起来吧!力学知识结构图光学知识结构图热学、原子物理知识结构图...

254m超高层办公楼型钢砼框架-核心筒结构图

高度类别:超高层建筑钢筋混凝土结构:框架,框架核心筒钢结构:钢框架建筑功能:办公包含:办公楼57层(-3层)254.150m钻孔灌注桩桩+筏板型钢混凝土框架-钢筋混凝土核心筒西裙房2层(-...

砖混结构与框架结构,究竟有何区别?千万别被坑!

现在买房装修的人最怕啥?不是价格高,而是房子不安全!两种主流建筑结构,砖混靠墙,框架靠柱子,选错了隔墙都可能要命。简单说,砖混便宜但别碰高层,框架贵点但能保命。砖混那些承重墙根本不能拆,想砸墙改个开放...

大师一百——高中化学必考:《元素周期律》考点框架图

今天大师给大家带来的是高中化学的《元素周期律》考点框架图,高中的同学必须牢记于心,这种重要的考点,考试是一定会考的!化学大师...

需求分析框架图

需求分析框架图

取消回复欢迎 发表评论: