百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

百度爬虫工程师教你只用500行Python代码构建一个轻量级爬虫框架

ccwgpt 2024-09-29 09:59 39 浏览 0 评论

Features

  1. 简单、易用;
  2. 易于定制的 Spider ;
  3. 多线程实现并发下载。

待改进

  1. 更多的测试代码;
  2. 添加更多的网站爬虫示例;
  3. 完善爬虫调度,支持 Request 优先级调度。

xcrawler 介绍

项目结构

├── demo (一个示例 Spider)
│ ├── baidu_news.py
│ └── __init__.py
├── README.md (项目文档)
├── setup.py (pip 安装脚本)
├── tests (测试代码,尚未完成)
└── xcrawler (核心代码)
 ├── core
 │ ├── crawler.py (Crawler process,负责管理引擎的配置和启动)
 │ ├── engine.py (Crawler engine,负责调度并完成 URL 请求和调用解析方法)
 │ ├── __init__.py
 ├── __init__.py
 ├── spider
 │ ├── __init__.py
 │ ├── request.py
 │ ├── response.py
 │ └── spider.py (Spider 基类,所有的自定义 Spider 需要从此处继承)
 └── utils (一些工具函数)
 ├── __init__.py
 └── url.py

Crawler engine (生产者+消费者模型)

  1. 引擎启动时会启动一个后台线程池,后台线程池负责下载由调度器提供给它的所有 URL (Request),并将响应(Response)结果存放到队列中;
  2. 引擎的前台解析线程会不断消费处理队列中的响应(Response),并调用相应 Spider 的解析函数处理这些相应;
  3. 引擎负责处页面理解析回来的对象,所有的 Request 对象都会被放到队列中(递归抓取时)等待处理,所有的字典对象(item)送给 Spider 的 process_item 方法处理。

配置介绍

  • 配置项目
  1. download_delay : 每批次之间的下载延迟(单位为秒),默认为 0;
  2. download_timeout :下载等待延迟,默认为 6 秒;
  3. retry_on_timeout :即当下载超时后,对应的请求是否应该重试;
  4. concurrent_requests :并发下载数;
  5. queue_size :请求队列大小,当队列已满时,会阻塞后续的请求。
  • 示例配置:
  • 由于链接老是失效,所以私信007即可获取到数十套PDF的群!
settings = {
 'download_delay': 0,
 'download_timeout': 6,
 'retry_on_timeout': True,
 'concurrent_requests': 32,
 'queue_size': 512
}

Spider 基类关键方法介绍

  1. spider_started :该方法会在引擎启动时被触发调用,你可以通过继承该方法进行一些初始化工作,比如配置 pipeline 输出文件或者数据库连接等等;
  2. spider_idle :该方法会在引擎处理空闲状态(即没有任何 requests 在队列)时被触发调用,你可以通过继承该方法给引擎添加新的请求等(使用 self.crawler . crawl ( new_request , spider = self )即可);
  3. spider_stopped :该方法会在引擎关闭时触发调用,你可以通过继承该方法并在 Spider 结束工作前做一些清理工作,如关闭文件管道、关闭数据库连接等;
  4. start_requests :该方法会为引擎提该 Spider 的对应种子请求;
  5. make_requests_from_url :该方法会为你的 URL 创建一个 Request 对象;
  6. parse :该方法为请求的默认解析函数回调,当然你可以可以在创建 Request 时指定其它的回调函数;
  7. process_request :每当引擎处理一个 Spider 对应的请求时,该方法会被触发调用,你可以通过继承该方法对 request 做些设置,比如更换随机的 User - Agent ,替换 Cookies 或者代理等;当然,你可以将 request 设置为 None 从而忽略该请求;
  8. proccess_response :每当引擎处理一个 Spider 对应的响应时,该方法会被触发调用;
  9. process_item :每当引擎处理一个 Spider 对应的 item 时,该方法会被触发调用,你可以通过继承该方法将抓取并解析到的 item 存储到数据库或者本地文件中。

注意

  1. 你可以在一个 Crawler 进程中装入不同的 Spider class ,但需要保证不同的 Spider 的名称也要不同,否则会被引擎拒绝;
  2. 需要根据情况调整下载延迟和并发数大小;下载延迟尽量不要太大,否则每批请求可能会等待较长时间才会处理完成,从而影响爬虫性能;
  3. Windows 下的测试还没做,我用的是 Ubuntu ,所以如果您有什么问题,欢迎反馈哈!

安装

  1. 请移步项目主页 xcrawler (https://github.com/chrisleegit/xcrawler) 下载源码;
  2. 请保证你的安装环境为 Python 3.4+ ;
  3. 请使用 pip 3 setup.py install 安装即可。

示例

from xcrawler import CrawlerProcess
from xcrawler.spider import BaseSpider, Request
from lxml.html import fromstring
import json
__version__ = '0.0.1'
__author__ = 'Chris'
class BaiduNewsSpider(BaseSpider):
 name = 'baidu_news_spider'
 start_urls = ['http://news.baidu.com/']
 default_headers = {
 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) '
 'Chrome/50.0.2661.102 Safari/537.36'
 }
 def spider_started(self):
 self.file = open('items.jl', 'w')
 def spider_stopped(self):
 self.file.close()
 def spider_idle(self):
 # 引擎空闲时,你也可以从数据库中提取新的 URL 进来
 print('I am in idle mode')
 # self.crawler.crawl(new_request, spider=self)
 def make_requests_from_url(self, url):
 return Request(url, headers=self.default_headers)
 def parse(self, response):
 root = fromstring(response.content,
 base_url=response.base_url)
 for element in root.xpath('//a[@target="_blank"]'):
 title = self._extract_first(element, 'text()')
 link = self._extract_first(element, '@href').strip()
 if title:
 if link.startswith('http://') or link.startswith('https://'):
 yield {'title': title, 'link': link}
 yield Request(link, headers=self.default_headers, callback=self.parse_news,
 meta={'title': title})
 def parse_news(self, response):
 pass
 def process_item(self, item):
 print(item)
 print(json.dumps(item, ensure_ascii=False), file=self.file)
 @staticmethod
 def _extract_first(element, exp, default=''):
 r = element.xpath(exp)
 if len(r):
 return r[0]
 return default
def main():
 settings = {
 'download_delay': 1,
 'download_timeout': 6,
 'retry_on_timeout': True,
 'concurrent_requests': 16,
 'queue_size': 512
 }
 crawler = CrawlerProcess(settings, 'DEBUG')
 crawler.crawl(BaiduNewsSpider)
 crawler.start()
if __name__ == '__main__':
 main()

版权声明

  • 本文由 Christopher L 发表,采用 知识共享署名——非商业性使用——相同方式共享 4.0 国际许可协议 进行许可。请确保你已了解许可协议,并在转载 时声明。
  • 本文固定链接: http://blog.chriscabin.com/?p=1512。

相关推荐

Android开发基础入门(一):UI与基础控件

Android基础入门前言:从今天开始,我们开始分享Android客户端开发的基础知识。一、工具指南工欲善其事必先利其器,我们首先介绍一下开发Android常用的集成开发环境。小雨在上大学期间,开发a...

谷歌Material Design质感设计UI开发框架

谷歌MaterialDesign质感设计是一个新的用户界面设计概念,即将到来的Android版本称为“AndroidL”中会使用这种设计语言。在这篇文章中,我们收集出最新的和最好的Android...

Android主流UI开源库整理(android 开源ui)

前言最近老大让我整理一份Android主流UI开源库的资料,以补充公司的Android知识库。由于对格式不做特别限制,于是打算用博客的形式记录下来,方便查看、防丢并且可以持续维护、不断更新。标题隐...

系统工具类App的开发框架(系统开发方法工具)

系统工具类App的开发框架选择,很大程度上取决于目标平台(Android、iOS或两者兼有),以及对性能、系统级访问深度和开发效率的需求。由于这类App常常需要深入操作系统底层,因此原生开发框架通常是...

2025年vue前端框架前瞻(vue前端开发规范手册)

Vue是一个轻量且灵活的JavaScript框架,广受开发者喜爱,因其简单易用的API和组件化的开发方式而闻名。Vite是一个现代化的前端构建工具,以其极快的开发服务器启动速度和热模块替换...

前端流行框架Vue3教程:28. Vue应用

28.Vue应用应用实例每个Vue应用都是通过createApp函数创建一个新的应用实例main.jsimport{createApp}from'vue'import...

2024 Vue 最全的生态工具组合推荐指南

Vue3虽然Vue2很多项目在用,但是官方已经宣布不再维护Vue2,所以新项目肯定首选Vue3来进行开发,组合式API开发起来比选项式API方便多了,而且Vue3的响应式实现也更...

基于 Vue3 Element Plus 的中后台管理系统模板

PureAdmin是一个开源的前端中后台管理系统模板,基于Vue3、Element-Plus,支持移动端、国际化、多主题设置,支持前端静态路由、后端动态路由配置,旨在为开发人员提供一个易于使用、高...

重磅!滴滴开源全新跨端小程序框架,基于 Vue 3!

最近,滴滴出行开源了自主研发的全新轻量级跨端小程序框架——星河(Dimina),为开发者提供了“一次开发,多端运行”的高性能、低门槛解决方案。下面就来一览Dimina的魅力!什么是星河(Dim...

【推荐】一款基于 Vue + .NET 8 开源、免费、功能强大的快速开发框架

如果您对源码&技术感兴趣,请点赞+收藏+转发+关注,大家的支持是我分享最大的动力!!!项目介绍Vue.NetCore是一款集高效、灵活、易于扩展于一体的快速开发框架(基于Vue提供Vue2/Vue...

搭建Trae+Vue3的AI开发环境(vue ide 开发工具)

从2024年2025年,不断的有各种AI工具会在自媒体中火起来,号称各种效率王炸,而在AI是否会替代打工人的话题中,程序员又首当其冲。作为一个后端开发,这篇文章基于Trae工具,来创建和运行一个简单的...

一款基于 Vue + .NET 8 开源、免费、功能强大的快速开发框架

项目介绍Vue.NetCore是一款集高效、灵活、易于扩展于一体的快速开发框架(基于Vue提供Vue2/Vue3版本和.NET8前后端分离),适用于多种应用场景。通过前后端分离的设计、强大的...

盘点一下这些年PHP在桌面应用方面的解决方案

今天作者给大家盘点一下近些年PHP在实现桌面客户端方面的项目。PHP-GTKPHP-GTK是2001年3月创立,是PHP的一个扩展,实现了与GTK+的绑定,提供面向对象的接口,极大地简化了客户端跨平台...

PHP+Uniapp校园圈子系统校园论坛小程序开发:踩坑与优化经验分享

一、系统架构与技术选型1.架构设计采用前后端分离架构,前端使用Uniapp实现跨端开发(支持微信小程序、H5、App),后端基于PHP(推荐ThinkPHP或Laravel框架)提供RESTful...

智能匹配+安全护航:PHP代练系统护航小程序如何提升用户信任?

在代练行业中,用户信任是平台发展的核心要素。基于PHP后端与uni-app跨端框架的代练系统,通过智能匹配与安全护航两大核心策略,能够有效提升用户信任,构建健康可持续的代练生态。以下从技术实现与用户体...

取消回复欢迎 发表评论: