百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

XXL-JOB分布式定时任务框架(分布式定时任务调度框架)

ccwgpt 2024-09-29 09:52 22 浏览 0 评论

1 XXL-JOB分布式定时任务框架介绍

XXL-JOB是一个分布式任务调度平台,其核心设计目标是开发迅速、学习简单、轻量级、易扩展。现已开放源代码并接入多家公司线上产品线,开箱即用。

https://www.xuxueli.com/xxl-job/

2 传统定时任务框架存在的问题

1、 业务逻辑与定时任务逻辑放入在同一个Jar包中,如果定时任务逻辑挂了也会影响到业务逻辑;

2、 如果服务器集群的情况下,可能存在定时任务逻辑会重复触发执行;

3、 当任务量很大的时候,传统任务调度不支持任务拆分,无法快速执行完毕;

4、 定时任务非常占用服务器的内存,不管用什么框架,底层肯定是一个while死循环。

3 XXL-JOB框架核心模块说明

- xxl-job-admin:调度中心

- xxl-job-core:公共依赖

- xxl-job-executor-samples:执行器Sample示例

核心模块:

调度中心模块:统一管理调度任务(控制执行器执行任务),自身不承担业务逻辑,同时提供了“日志、告警、注册中心”等功能。

执行器模块:负责接收调度中心的请求,进行定时任务逻辑执行。

4 XXL-JOB环境搭建

4.1 服务环境

· Maven3+

· Jdk1.8+

· Mysql5.7+

4.2 搭建xxl-job-admin调度中心

作用:统一管理任务调度平台上调度任务,负责触发调度执行,并且提供任务管理平台。

1. 下载xxl-admin源码https://www.xuxueli.com/xxl-job/,导入IDEA编辑器;

2. 将xxl-job依赖的sql导入到Mysql中;

sql文件在xxl-job-master\xxl-job-master\doc\db\目录。

3. xxl-job-admin启动项目,访问http://localhost:8080/xxl-job-admin

默认登录账号 “admin/123456”

5 SpringBoot整合XXL-JOB执行器

5.1 引入pom依赖

<dependencyManagement>
    <dependencies>
        <dependency>
            <!-- Import dependency management from Spring Boot (依赖管理:继承一些默认的依赖,工程需要依赖的jar包的管理,申明其他dependency的时候就不需要version) -->
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-parent</artifactId>
            <version>2.6.7</version>
            <type>pom</type>
            <scope>import</scope>
        </dependency>
    </dependencies>
</dependencyManagement>

<dependencies>
    <!-- spring-boot-starter-web (spring-webmvc + tomcat) -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
        <scope>test</scope>
    </dependency>

    <!-- xxl-job-core -->
    <dependency>
        <groupId>com.xuxueli</groupId>
        <artifactId>xxl-job-core</artifactId>
        <version>2.4.0-SNAPSHOT</version>
    </dependency>

</dependencies>

5.2 创建配置类

1. 将xxl-job-executor-sample-springboot模块下的application.propertis文件

和logback.xml文件copy到自己的resources目录下

注意需要修改执行器端口xxl.job.executor.port参数,不能和其它服务端口相同

5.3 添加XxlJobConfig配置

/**
 * xxl-job config
 *
 * @author xuxueli 2017-04-28
 */
@Configuration
public class XxlJobConfig {
    private Logger logger = LoggerFactory.getLogger(XxlJobConfig.class);
    @Value("${xxl.job.admin.addresses}")
    private String adminAddresses;
    @Value("${xxl.job.accessToken}")
    private String accessToken;
    @Value("${xxl.job.executor.appname}")
    private String appname;
    @Value("${xxl.job.executor.address}")
    private String address;
    @Value("${xxl.job.executor.ip}")
    private String ip;
    @Value("${xxl.job.executor.port}")
    private int port;
    @Value("${xxl.job.executor.logpath}")
    private String logPath;
    @Value("${xxl.job.executor.logretentiondays}")
    private int logRetentionDays;

    @Bean
    public XxlJobSpringExecutor xxlJobExecutor() {
        logger.info(">>>>>>>>>>> xxl-job config init.");
        XxlJobSpringExecutor xxlJobSpringExecutor = new XxlJobSpringExecutor();
        xxlJobSpringExecutor.setAdminAddresses(adminAddresses);
        xxlJobSpringExecutor.setAppname(appname);
        xxlJobSpringExecutor.setAddress(address);
        xxlJobSpringExecutor.setIp(ip);
        xxlJobSpringExecutor.setPort(port);
        xxlJobSpringExecutor.setAccessToken(accessToken);
        xxlJobSpringExecutor.setLogPath(logPath);
        xxlJobSpringExecutor.setLogRetentionDays(logRetentionDays);

        return xxlJobSpringExecutor;
    }

}

5.4 创建定时任务

/**
 * 定时任务
 */
@Component
public class JobHandler {

    @XxlJob("kexuektJobHandler")
    public void demoJobHandler() {
        System.out.println("kexuektJobHandler执行器开始执行");
        System.out.println("参数:" + XxlJobHelper.getJobParam());
    }

}

测试:

1. 执行器管理手动添加执行器

2. 新增定时任务

3. 点击执行一次,查看控制台效果。

6 XXL-JOB原理解析

6.1 执行流程

1、执行器项目启动后会将自己的IP和端口xxl.job.executor.port信息注册到“调度中心的注册中心”
2、调度中心向执行器下发执行任务时,根据注册的执行器名称xxl.job.executor.appname,从注册中心找到所有执行器的IP地址(执行器集群),然后根据策略(轮训、随机等)去调用某一具体的执行器。
3、“执行器”执行任务逻辑,执行结束后将结果通知给“调度中心”成功或失败;


6.2 负载均衡策略

第一个、最后一个、轮训、随机、分片广播等。

6.2 分片广播 - 实现千万级消息处理

如果有100w条消息,如何最快的通知给用户?

  • 需求是要在一分钟内处理完,正常情况下处理完100w条消息需要10分钟。
  • 解决:开10台服务器(10个执行器),每个执行器分别处理10w条消息。

通过分页解决:

第一台服务器执行1-10w条

第一台服务器执行10w-20w条


问题:10台服务怎么知道自己从那条开始执行?

答案:通过分片广播策略。
int shardIndex = XxlJobHelper.getShardIndex();   // 0-9
int shardTotal = XxlJobHelper.getShardTotal();   // 10
得到每台服务需要处理多少条消息:100w / shardTotal = 10w
得到分页开始值:(100w / shardTotal) * shardIndex = 0, 10w, 20 w …….
limit(0, 10w)  limit(10w, 10w)  limit(20w, 10w) ……


模拟1=1w条数据
select * from sys_log limit 0,10;
select * from sys_log limit 10,10;
select * from sys_log limit 20,10;

相关推荐

想快速上手Python网络爬虫?这份实战指南你不能错过!

以下是关于Python网络爬虫实战的详细指南,涵盖基础知识、常用工具、实战案例及注意事项:一、爬虫基础概念1.什么是网络爬虫?o通过自动化程序从网页上抓取并提取数据的工具。o核心步骤:请求网...

python爬虫怎么副业接单

其实这个问题也挺重要的,花了时间花了经历去学了python爬虫,本想靠着这个技能去补贴家用或者挣点零花钱,但是发现有时候的单子是自己力所不能及的,有的东西真的是不会,又或者不知从何下手。那么这篇文章主...

用Python写了一个图像文字识别OCR工具

人生苦短,快学Python!在之前的文章里,我们多次尝试用Python实现文本OCR识别!今天我们要搞一个升级版:直接写一个图像文字识别OCR工具!引言最近在技术交流群里聊到一个关于图像文字识别的...

taskPyro:为 Python 任务与爬虫插上自动化翅膀的开源利器

在数据驱动的时代,无论是数据采集、ETL流程,还是定期的系统维护脚本,高效、可靠的任务调度成为了许多开发者和运维人员的刚需。特别是对于Python开发者而言,如何优雅地管理和调度日益增多的爬虫任...

网络爬虫:Python动态网页爬虫2种技术方式及示例

作者:糖甜甜甜https://mp.weixin.qq.com/s/5Dwh5cbfjpDfm_FRcpw1Ug这一讲,我将会为大家讲解稍微复杂一点的爬虫,即动态网页的爬虫。动态网页技术介绍动态网页爬...

30个小时搞定Python网络爬虫(全套详细版)

【课程介绍】适用人群1、零基础对Python网络爬虫感兴趣的学员2、想从事Python网络爬虫工程师相关工作的学员3、想学习Python网络爬虫作为技术储备的学员课程目标1、本课程的目标是将大家培养成...

python爬虫常用工具库总结

说起爬虫,大家可能第一时间想到的是python,今天就简单为大家介绍下pyhton常用的一些库。请求库:实现基础Http操作urllib:python内置基本库,实现了一系列用于操作url的功能。...

玛森:Python爬虫书籍推荐

  Python爬虫书籍推荐什么?玛森科技徐老师介绍,网络爬虫现在很火,不管业内人士或业外人士,大家对爬虫或多或少都有一些了解,网络爬虫通俗的讲,就是通过程序去互联网上面爬取想要的内容,并且爬取的过程...

如何入门python爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

爬虫修炼手册,Python爬虫学习入门Scrapy

爬虫就如同江湖中的神秘侠客,应运而生,成为了我们获取数据的得力助手。爬虫,正式名称是网络爬虫(WebCrawler),也被叫做网页蜘蛛、网络机器人,它是一段神奇的计算机代码,能够自动在互联网的信息...

如何入门 Python 爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

有了这4张思维导图,带你Python(爬虫)轻松入门

刚接触Python爬虫,该怎么学更有效?指南君给大家带来了这四张思维导图。非常适合刚开始学Python爬虫的同学用于回顾知识点、巩固学习情况等。话不多说,快来学习Python爬虫入门的最强干货吧!P...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

超实用!Python 在爬虫和自动化领域的 8 类工具与技术大盘点

Python在爬虫和自动化领域拥有丰富的工具库和框架,以下是一些常用工具和技术的分类整理,帮助你高效实现数据抓取和自动化任务:1.基础HTTP请求库oRequestso简洁的HTTP库...

学习Python的第四天之网络爬虫

30岁程序员学习Python的第四天之网络爬虫的Scrapy库Scrapy库的基本信息Scrapy库的安装在windows系统中通过管理员权限打开cmd。运行pipinstallscrapy即可安...

取消回复欢迎 发表评论: