Elastic-Job是一个分布式调度解决方案,它解决了什么问题呢?
如果你需要定时对数据进行处理,但由于数据量实在太大了,一台机器处理不过来,于是用两台机器处理,第一台处理 id 为奇数的数据,第二台处理 id 为偶数的数据,elastic job 可以优雅地对任务进行分片,拿到分片的机器才能执行定时任务。
概念:instance,sharding,leader
1. 定时任务程序是 instance。
public class MyElasticJob implements SimpleJob { public void execute(ShardingContext sc) {
System.out.println(sc.getShardingItem()); // 0, 1
System.out.println(sc.getShardingParameter()); // A, B
System.out.println(sc.getShardingTotalCount()); // 2
if (0 == sc.getShardingItem()) {
System.out.println("hello yinyinyin!");
// 处理 id 为偶数的数据
} else if (1 == sc.getShardingItem()) {
System.out.println("hello yanyanyan!");
// 处理 id 为奇数的数据
}
}
}
2. elastic job 依赖 zk 对任务进行分片:
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xmlns:reg="http://www.dangdang.com/schema/ddframe/reg"
xmlns:job="http://www.dangdang.com/schema/ddframe/job"
xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans.xsd
http://www.dangdang.com/schema/ddframe/reg
http://www.dangdang.com/schema/ddframe/reg/reg.xsd
http://www.dangdang.com/schema/ddframe/job
http://www.dangdang.com/schema/ddframe/job/job.xsd">
<!--配置作业注册中心 -->
<reg:zookeeper id="regCenter" server-lists="127.0.0.1:2181"
namespace="dd-job" base-sleep-time-milliseconds="1000"
max-sleep-time-milliseconds="3000" max-retries="3" />
<!-- 配置作业A-->
<job:simple id="myElasticJob" class="util.MyElasticJob"
registry-center-ref="regCenter" cron="0 0/1 * * * ?" overwrite="true"
sharding-total-count="2" sharding-item-parameters="0=A,1=B" />
</beans>
zk 中定时任务的视图:
在 192.168.40.8 和 192.168.40.1 上分别有定时任务程序,定时任务有 2 个分片, 1 和 0。先注册到 zk 的 instance 是 leader,它负责对任务进行分片。leader/election 的 instance 节点是瞬时的,它记录了 leader 的信息。
如果是 leader 下线,会触发 leader 重新选举,如果有机器下线,会触发定时任务的重新分片。