深入理解分布式调度框架TBSchedule及源码分析

简介

  由于最近工作比较忙,前前后后花了两个月的时间把TBSchedule的源码翻了个底朝天。关于TBSchedule的使用,网上也有很多参考资料,这里不做过多的阐述。本文着重介绍TBSchedule的运行机制,架构设计以及优化建议。通过学习别人的经验,来提高自己的技术能力,感受阿里人的智慧,也向阿里空玄,阿里玄难为开源贡献致敬。

zookeeper依赖

  TBSchedule依赖于ZK存储调度数据,在使用中充当着nosql的角色,zk的watch机制只用于zk重连,提高可靠性。下图是zk与tbschedule的部署图。

深入理解分布式调度框架TBSchedule及源码分析

  TBSchedule有很多特性,包括批量任务,多主机,多线程,动态扩展,实时或定时任务,分片,并发,不重复执行。在介绍这些特性之前,先来了解一下整个zk目录结构,有助于理解整个调度过程。下图是zk调度数据结构图。其中()内表示zk目录保存的数据。

深入理解分布式调度框架TBSchedule及源码分析深入理解分布式调度框架TBSchedule及源码分析

TBSchedule原理

1)TBSchedule在zookeeper初始化完成之后初始化数据,其中创建basetasktype,stractegy,factory目录。调用registerManagerFactory,在factory目录下创建瞬时有序节点,节点名称(IP+$+HostName+$+UUID+$Sequence),然后根据ip是否在ip管理范围内,在strategy目录下添加或删除对应的(IP+$+HostName+$+UUID+$Sequence)瞬时目录节点。最后启动默认的refresh()操作。

2)TBSchedule在每2s中zk正常情况下执行一次refresh操作,该操作如果查询zk管理信息异常则停止所有调度任务后重新注册管理器工厂,如果管理器start状态=false,则停止所有调度任务。具体实现在TBScheduleManagerFactory的reRegisterManagerFactory()中。具体代码如下:

public void reRegisterManagerFactory() throws Exception {
// 根据UUID,在/factory目录下查找对应目录,并在/strategy目录下更具IP数组,
//确定可管理的strtegyName下创建(IP+$+HostName+$+UUID+$Sequence)目录
// 返回不可管理的调度策略类型名称,并停止对应的调度处理器
List<String> stopList = this.getScheduleStrategyManager()
.registerManagerFactory(this);
for (String strategyName : stopList) {
this.stopServer(strategyName); //停止对应的调度处理器
}
//根据策略重新分配调度任务机器的任务数,并在zk上更新对应的ScheduleStrategyRunntime中的AssignNum
this.assignScheduleServer();
//注意,一个strategyName下只有唯一表示当前调度服务器的节点(IP+$+HostName+$+UUID+$Sequence)
//同时一个strategyName对应该调度服务器多个IStrategyTask任务管理器,一个taskItem对应一个任务管理器
//多则删停,少则加起
this.reRunScheduleServer();
}

这边再介绍下tbschedule的任务分配策略,列如当前有4台机器(A,B,C,D),共10个任务(0,1..9)。首先将10个任务均等分,每个服务器可以分配到2个任务,最后剩余两个任务将给A,B服务器获得,具体算法如下:

/**
* 分配任务数量
* @param serverNum 总的服务器数量
* @param taskItemNum 任务项数量
* @param maxNumOfOneServer 每个server最大任务项数目
* @param maxNum 总的任务数量
* @return
*/
public static int[] assignTaskNumber(int serverNum,int taskItemNum,int maxNumOfOneServer){
int[] taskNums = new int[serverNum];
int numOfSingle = taskItemNum / serverNum;
int otherNum = taskItemNum % serverNum;
//20150323 删除, 任务分片保证分配到所有的线程组数上。 开始
// if (maxNumOfOneServer >0 && numOfSingle >= maxNumOfOneServer) {
// numOfSingle = maxNumOfOneServer;
// otherNum = 0;
// }
//20150323 删除, 任务分片保证分配到所有的线程组数上。 结束
for (int i = 0; i < taskNums.length; i++) {
if (i < otherNum) {
taskNums[i] = numOfSingle + 1;
} else {
taskNums[i] = numOfSingle;
}
}
return taskNums;
}

3)接下来根据每个strategyName下获得的任务数,来创建对应任务调度管理器数。具体实现在reRunScheduleServer()方法中,循环创建IStrategyTask,根据调度类型Schedule,Java,bean实例化不同的任务管理器TBScheduleManagerStatic,也包括自定义管理器,只要继承IStrategyTask接口就可以了。列如自定义管理器,需要配置taskname为java全类名或者bean的名称。

package com.taobao.pamirs.schedule.test;

import org.slf4j.Logger;
import org.slf4j.LoggerFactory; import com.taobao.pamirs.schedule.strategy.IStrategyTask;
/**
* 自定义任务管理器,调度类型为Java,Bean
* @author Administrator
*
*/
public class JavaTaskDemo implements IStrategyTask,Runnable {
protected static transient Logger log = LoggerFactory.getLogger(JavaTaskDemo.class); private String parameter;
private boolean stop = false;
public void initialTaskParameter(String strategyName,String taskParameter) {
parameter = taskParameter;
new Thread(this).start();
} @Override
public void stop(String strategyName) throws Exception {
this.stop = true;
} @Override
public void run() {
while(stop == false){
log.error("执行任务:" + this.parameter);
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
} }

对于常用的Schedule调度类型,使用的是TBScheduleManagerStatic管理器。

4)任务调度分配器TBScheduleManager,能够使得任务分片被不重复,不遗漏的快速处理。该功能也是TBSchedule的核心实现,一个JVM可以包含不同taskType的多个任务调度分配器。也就是说可以有相同任务taskType的多个任务管理器,也可以存在不同的tasktype的任务管理器。每个任务管理器包含一个任务处理器IScheduleProcessor,IScheduleProcessor实际上是个Runnnable对象,根据任务类型的线程数来初始化调度线程。任务处理器分为SLEEP和NotSleep模式。

下面是创建TBScheduleManager的操作。

TBScheduleManager(TBScheduleManagerFactory aFactory,String baseTaskType,String ownSign ,IScheduleDataManager aScheduleCenter) throws Exception{
this.factory = aFactory;
this.currentSerialNumber = serialNumber();
this.scheduleCenter = aScheduleCenter;
this.taskTypeInfo = this.scheduleCenter.loadTaskTypeBaseInfo(baseTaskType);
log.info("create TBScheduleManager for taskType:"+baseTaskType);
//清除已经过期1天的TASK,OWN_SIGN的组合。超过一天没有活动server的视为过期
this.scheduleCenter.clearExpireTaskTypeRunningInfo(baseTaskType,ScheduleUtil.getLocalIP() + "清除过期OWN_SIGN信息",this.taskTypeInfo.getExpireOwnSignInterval()); Object dealBean = aFactory.getBean(this.taskTypeInfo.getDealBeanName());
if (dealBean == null) {
throw new Exception( "SpringBean " + this.taskTypeInfo.getDealBeanName() + " 不存在");
}
if (dealBean instanceof IScheduleTaskDeal == false) {
throw new Exception( "SpringBean " + this.taskTypeInfo.getDealBeanName() + " 没有实现 IScheduleTaskDeal接口");
}
this.taskDealBean = (IScheduleTaskDeal)dealBean; if(this.taskTypeInfo.getJudgeDeadInterval() < this.taskTypeInfo.getHeartBeatRate() * 5){
throw new Exception("数据配置存在问题,死亡的时间间隔,至少要大于心跳线程的5倍。当前配置数据:JudgeDeadInterval = "
+ this.taskTypeInfo.getJudgeDeadInterval()
+ ",HeartBeatRate = " + this.taskTypeInfo.getHeartBeatRate());
}
//生成ScheduleServer信息。
this.currenScheduleServer = ScheduleServer.createScheduleServer(this.scheduleCenter,baseTaskType,ownSign,this.taskTypeInfo.getThreadNumber());
//设置ScheduleServer的ManagerFactoryUUID
this.currenScheduleServer.setManagerFactoryUUID(this.factory.getUuid());
//在/server下注册ScheduleServer信息,实际上可以看成在server目录下的每一个子节点表示一个任务调度管理器
scheduleCenter.registerScheduleServer(this.currenScheduleServer);
this.mBeanName = "pamirs:name=" + "schedule.ServerMananger." +this.currenScheduleServer.getUuid();
this.heartBeatTimer = new Timer(this.currenScheduleServer.getTaskType() +"-" + this.currentSerialNumber +"-HeartBeat");
this.heartBeatTimer.schedule(new HeartBeatTimerTask(this),
new java.util.Date(System.currentTimeMillis() + 500),
this.taskTypeInfo.getHeartBeatRate());
initial();
}

5)上面有两个重要的操作,一个是心跳调度器,主要职责是更新/server目录下对应的调度管理器心跳信息,清除过期的scheduleServer,如果是leader则进行任务项的分配。

class HeartBeatTimerTask extends java.util.TimerTask {
private static transient Logger log = LoggerFactory
.getLogger(HeartBeatTimerTask.class);
TBScheduleManager manager; public HeartBeatTimerTask(TBScheduleManager aManager) {
manager = aManager;
} public void run() {
try {
Thread.currentThread().setPriority(Thread.MAX_PRIORITY);
manager.refreshScheduleServerInfo();
} catch (Exception ex) {
log.error(ex.getMessage(), ex);
}
}
}
/**
* 如果发现本次更新的时间如果已经超过了,服务器死亡的心跳周期,则不能在向服务器更新信息。
* 而应该当作新的服务器,进行重新注册。
* @throws Exception
*/
public void refreshScheduleServerInfo() throws Exception {
try{
//在/server下更新任务调度服务器的心跳时间,调度信息
rewriteScheduleInfo();
//如果任务信息没有初始化成功,不做任务相关的处理,未完成init()
if(this.isRuntimeInfoInitial == false){
return;
} //重新分配任务,leader重新检查可用调度管理器,并修改taskItem下的current_server,req_server.
this.assignScheduleTask(); //判断是否需要重新加载任务队列,避免任务处理进程不必要的检查和等待
//思路:每一次修改了taskitem的任务分配之后,会在/taskitem下保存leader信息,及默认版本号-1
//比较保存的上一次任务加载的版本号是否 < 当前的版本号
boolean tmpBoolean = this.isNeedReLoadTaskItemList();
if(tmpBoolean != this.isNeedReloadTaskItem){
//只要不相同,就设置需要重新装载,因为在心跳异常的时候,做了清理队列的事情,恢复后需要重新装载。
synchronized (NeedReloadTaskItemLock) {
this.isNeedReloadTaskItem = true;
}
rewriteScheduleInfo();
} if(this.isPauseSchedule == true || this.processor != null && processor.isSleeping() == true){
//如果服务已经暂停了,则需要重新定时更新 cur_server 和 req_server
//如果服务没有暂停,一定不能调用的
//调度服务策略如果已经失效,会抛出异常
//加载任务list<taskDefine>
this.getCurrentScheduleTaskItemListNow();
}
}catch(Throwable e){
//清除内存中所有的已经取得的数据和任务队列,避免心跳线程失败时候导致的数据重复
this.clearMemoInfo();
if(e instanceof Exception){
throw (Exception)e;
}else{
throw new Exception(e.getMessage(),e);
}
}
}

其中的this.assignScheduleTask();实现了任务调度管理器的变化而相应的修改/taskItem下curr_server和req_server的调度变化。核心思想:rewriteScheduleInfo()中没有相应的调度服务器,则在/server下注册。然后获取有效的所有调度服务器,遍历所有任务项,如果发现该任务项的curr_server表示的manager不存在,则设置null。然后对所有的任务分片重新分配调度服务器,具体算法如下:

public void assignTaskItem(String taskType, String currentUuid,int maxNumOfOneServer,
List<String> taskServerList) throws Exception {
if(this.isLeader(currentUuid,taskServerList)==false){
if(log.isDebugEnabled()){
log.debug(currentUuid +":不是负责任务分配的Leader,直接返回");
}
return;
}
if(log.isDebugEnabled()){
log.debug(currentUuid +":开始重新分配任务......");
}
if(taskServerList.size()<=0){
//在服务器动态调整的时候,可能出现服务器列表为空的清空
return;
}
String baseTaskType = ScheduleUtil.splitBaseTaskTypeFromTaskType(taskType);
String zkPath = this.PATH_BaseTaskType + "/" + baseTaskType + "/" + taskType + "/" + this.PATH_TaskItem;
List<String> children = this.getZooKeeper().getChildren(zkPath, false);
// Collections.sort(children);
// 20150323 有些任务分片,业务方其实是用数字的字符串排序的。优先以数字进行排序,否则以字符串排序
Collections.sort(children,new Comparator<String>(){
public int compare(String u1, String u2) {
if(StringUtils.isNumeric(u1) && StringUtils.isNumeric(u2)){
int iU1= Integer.parseInt(u1);
int iU2= Integer.parseInt(u2);
/*if(iU1==iU2){
return 0 ;
}else if(iU1>iU2){
return 1 ;
}else{
return -1;
}*/
return iU1-iU2;
}else{
return u1.compareTo(u2);
}
}
});
int unModifyCount =0;
int[] taskNums = ScheduleUtil.assignTaskNumber(taskServerList.size(), children.size(), maxNumOfOneServer);
int point =0;
int count = 0;
String NO_SERVER_DEAL = "没有分配到服务器";
for(int i=0;i <children.size();i++){
String name = children.get(i);
if(point <taskServerList.size() && i >= count + taskNums[point]){
count = count + taskNums[point];
point = point + 1;
}
String serverName = NO_SERVER_DEAL;
if(point < taskServerList.size() ){
serverName = taskServerList.get(point);
}
byte[] curServerValue = this.getZooKeeper().getData(zkPath + "/" + name + "/cur_server",false,null);
byte[] reqServerValue = this.getZooKeeper().getData(zkPath + "/" + name + "/req_server",false,null); if(curServerValue == null || new String(curServerValue).equals(NO_SERVER_DEAL)){
//对没有分配的任务分片,添加调度服务器
this.getZooKeeper().setData(zkPath + "/" + name + "/cur_server",serverName.getBytes(),-1);
this.getZooKeeper().setData(zkPath + "/" + name + "/req_server",null,-1);
}else if(new String(curServerValue).equals(serverName)==true && reqServerValue == null ){
//不需要做任何事情 当前执行的调度器正好和重新分配的调度器一致
unModifyCount = unModifyCount + 1;
}else{
//调度服务器请求转换
this.getZooKeeper().setData(zkPath + "/" + name + "/req_server",serverName.getBytes(),-1);
}
} if(unModifyCount < children.size()){ //设置需要所有的服务器重新装载任务
log.info("设置需要所有的服务器重新装载任务:updateReloadTaskItemFlag......"+taskType+ " ,currentUuid "+currentUuid );
//设置/server[v.2][reload=true]
this.updateReloadTaskItemFlag(taskType);
}
if(log.isDebugEnabled()){
StringBuffer buffer = new StringBuffer();
for(ScheduleTaskItem taskItem: this.loadAllTaskItem(taskType)){
buffer.append("\n").append(taskItem.toString());
}
log.debug(buffer.toString());
}
}

在第4点附上的源码最后有个initial();操作,首先启动一个独立的线程,判断isRuntimeInfoInitial标志位判断是否已经初始化数据,如果没有则leader调度器执行initialRunningInfo(),删除/TaskItem目录,根据ScheduleTaskType,获取到的任务项数组,创建任务项节点,同时在/taskItem下设置leader数据。initial()源码如下:

public void initial() throws Exception{
new Thread(this.currenScheduleServer.getTaskType() +"-" + this.currentSerialNumber +"-StartProcess"){
@SuppressWarnings("static-access")
public void run(){
try{
log.info("开始获取调度任务队列...... of " + currenScheduleServer.getUuid());
//并发启动调度管理器,直至leader初始化任务项完成
while (isRuntimeInfoInitial == false) {
if(isStopSchedule == true){
log.debug("外部命令终止调度,退出调度队列获取:" + currenScheduleServer.getUuid());
return;
}
//log.error("isRuntimeInfoInitial = " + isRuntimeInfoInitial);
try{
initialRunningInfo();
//在/taskitem下的数据判断是否为leader的数据
isRuntimeInfoInitial = scheduleCenter.isInitialRunningInfoSucuss(
currenScheduleServer.getBaseTaskType(),
currenScheduleServer.getOwnSign());
}catch(Throwable e){
//忽略初始化的异常
log.error(e.getMessage(),e);
}
if(isRuntimeInfoInitial == false){
Thread.currentThread().sleep(1000);
}
}
int count =0;
lastReloadTaskItemListTime = scheduleCenter.getSystemTime();
//此处会给currentTaskItemList添加元素,直至加载到任务
while(getCurrentScheduleTaskItemListNow().size() <= 0){
if(isStopSchedule == true){
log.debug("外部命令终止调度,退出调度队列获取:" + currenScheduleServer.getUuid());
return;
}
Thread.currentThread().sleep(1000);
count = count + 1;
// log.error("尝试获取调度队列,第" + count + "次 ") ;
}
String tmpStr ="TaskItemDefine:";
for(int i=0;i< currentTaskItemList.size();i++){
if(i>0){
tmpStr = tmpStr +",";
}
tmpStr = tmpStr + currentTaskItemList.get(i);
}
log.info("获取到任务处理队列,开始调度:" + tmpStr +" of "+ currenScheduleServer.getUuid()); //任务总量
taskItemCount = scheduleCenter.loadAllTaskItem(currenScheduleServer.getTaskType()).size();
//只有在已经获取到任务处理队列后才开始启动任务处理器
computerStart();
}catch(Exception e){
log.error(e.getMessage(),e);
String str = e.getMessage();
if(str.length() > 300){
str = str.substring(0,300);
}
startErrorInfo = "启动处理异常:" + str;
}
}
}.start();
}

最后的computerStart()方法是实现周期执行的关键,TBSchedule基于cronExpression表达式实现周期性调度,执行类型分为两种TYPE_PAUSE,TYPE_RESUME。并更新setNextRunStartTime和setNextRunEndTime。

    /**
* 开始的时候,计算第一次执行时间
* @throws Exception
*/
public void computerStart() throws Exception{
//只有当存在可执行队列后再开始启动队列 boolean isRunNow = false;
if(this.taskTypeInfo.getPermitRunStartTime() == null){
isRunNow = true;
}else{
String tmpStr = this.taskTypeInfo.getPermitRunStartTime();
if(tmpStr.toLowerCase().startsWith("startrun:")){
isRunNow = true;
tmpStr = tmpStr.substring("startrun:".length());
}
CronExpression cexpStart = new CronExpression(tmpStr);
Date current = new Date( this.scheduleCenter.getSystemTime());
Date firstStartTime = cexpStart.getNextValidTimeAfter(current);
this.heartBeatTimer.schedule(
new PauseOrResumeScheduleTask(this,this.heartBeatTimer,
PauseOrResumeScheduleTask.TYPE_RESUME,tmpStr),
firstStartTime);
this.currenScheduleServer.setNextRunStartTime(ScheduleUtil.transferDataToString(firstStartTime));
if( this.taskTypeInfo.getPermitRunEndTime() == null
|| this.taskTypeInfo.getPermitRunEndTime().equals("-1")){
this.currenScheduleServer.setNextRunEndTime("当不能获取到数据的时候pause");
}else{
try {
String tmpEndStr = this.taskTypeInfo.getPermitRunEndTime();
CronExpression cexpEnd = new CronExpression(tmpEndStr);
Date firstEndTime = cexpEnd.getNextValidTimeAfter(firstStartTime);
Date nowEndTime = cexpEnd.getNextValidTimeAfter(current);
if(!nowEndTime.equals(firstEndTime) && current.before(nowEndTime)){
isRunNow = true;
firstEndTime = nowEndTime;
}
this.heartBeatTimer.schedule(
new PauseOrResumeScheduleTask(this,this.heartBeatTimer,
PauseOrResumeScheduleTask.TYPE_PAUSE,tmpEndStr),
firstEndTime);
this.currenScheduleServer.setNextRunEndTime(ScheduleUtil.transferDataToString(firstEndTime));
} catch (Exception e) {
log.error("计算第一次执行时间出现异常:" + currenScheduleServer.getUuid(), e);
throw new Exception("计算第一次执行时间出现异常:" + currenScheduleServer.getUuid(), e);
}
}
}
//如果没有getPermitRunStartTime,则跳过timer调度,立即执行
if(isRunNow == true){
this.resume("开启服务立即启动");
}
this.rewriteScheduleInfo(); }

从上面的代码中,我们注意到了这个调度使用同一个timer对象,每次调度执行后在timer添加新的调度task。如果是PAUSE类型调度,则执行manager.pause("到达终止时间,pause调度"),如果是RESUME,则执行manager.resume("到达开始时间,resume调度");,并计算下次调度时间,重新添加到调度队列。具体实现如下:

class PauseOrResumeScheduleTask extends java.util.TimerTask {
private static transient Logger log = LoggerFactory
.getLogger(HeartBeatTimerTask.class);
public static int TYPE_PAUSE = 1;
public static int TYPE_RESUME = 2;
TBScheduleManager manager;
Timer timer;
int type;
String cronTabExpress;
public PauseOrResumeScheduleTask(TBScheduleManager aManager,Timer aTimer,int aType,String aCronTabExpress) {
this.manager = aManager;
this.timer = aTimer;
this.type = aType;
this.cronTabExpress = aCronTabExpress;
}
public void run() {
try {
Thread.currentThread().setPriority(Thread.MAX_PRIORITY);
this.cancel();//取消调度任务
Date current = new Date(System.currentTimeMillis());
CronExpression cexp = new CronExpression(this.cronTabExpress);
Date nextTime = cexp.getNextValidTimeAfter(current);
if(this.type == TYPE_PAUSE){
manager.pause("到达终止时间,pause调度");
this.manager.getScheduleServer().setNextRunEndTime(ScheduleUtil.transferDataToString(nextTime));
}else{
manager.resume("到达开始时间,resume调度");
this.manager.getScheduleServer().setNextRunStartTime(ScheduleUtil.transferDataToString(nextTime));
}
this.timer.schedule(new PauseOrResumeScheduleTask(this.manager,this.timer,this.type,this.cronTabExpress) , nextTime);
} catch (Throwable ex) {
log.error(ex.getMessage(), ex);
}
}
}

resume即在可执行时间区间恢复调度,根据SchduleTaskType配置的处理器类型模式Sleep或者NotSleep来初始化处理器。默认使用TBScheduleProcessorSleep处理器。

/**
* 处在了可执行的时间区间,恢复运行
* @throws Exception
*/
public void resume(String message) throws Exception{
if (this.isPauseSchedule == true) {
if(log.isDebugEnabled()){
log.debug("恢复调度:" + this.currenScheduleServer.getUuid());
}
this.isPauseSchedule = false;
this.pauseMessage = message;
if (this.taskDealBean != null) {
if (this.taskTypeInfo.getProcessorType() != null &&
this.taskTypeInfo.getProcessorType().equalsIgnoreCase("NOTSLEEP")==true){
this.taskTypeInfo.setProcessorType("NOTSLEEP");
this.processor = new TBScheduleProcessorNotSleep(this,
taskDealBean,this.statisticsInfo);
}else{
this.processor = new TBScheduleProcessorSleep(this,
taskDealBean,this.statisticsInfo);
this.taskTypeInfo.setProcessorType("SLEEP");
}
}
rewriteScheduleInfo();//更新心跳信息
}
}
6)多线程执行,TBScheduleProcessorSleep是一个Runnable对象,多个调度线程共享如下变量:
    final  LockObject   m_lockObject = new LockObject();
//缓存线程对象
List<Thread> threadList = new CopyOnWriteArrayList<Thread>();
/**
* 任务管理器
*/
protected TBScheduleManager scheduleManager;
/**
* 任务类型
*/
ScheduleTaskType taskTypeInfo; /**
* 任务处理的接口类
*/
protected IScheduleTaskDeal<T> taskDealBean; /**
* 当前任务队列的版本号
*/
protected long taskListVersion = 0;
final Object lockVersionObject = new Object();
final Object lockRunningList = new Object();
//任务队列
protected List<T> taskList = new CopyOnWriteArrayList<T>(); /**
* 是否可以批处理
*/
boolean isMutilTask = false; /**
* 是否已经获得终止调度信号
*/
boolean isStopSchedule = false;// 用户停止队列调度
boolean isSleeping = false;

在初始化执行处理器,会启动ThreadNumber个线程数,

for (int i = 0; i < taskTypeInfo.getThreadNumber(); i++) {
this.startThread(i);
}

下面具体看一下线程的run()操作。一个执行线程的职责主要是执行自定义的IScheduleTaskDealSingle,而IScheduleTaskDealMulti可以实现批量处理,实现区别也是大同小异。其核心思想:

对开始执行的线程计数+1,在没有停止调度的前提下即resume状态下,执行客户自定义ScheduleTask的execute()方法,并完成执行统计。当任务队列中的所有任务Item都执行完成,队列为空时,如果正在执行任务的线程数不是最后一个线程,则等待。反之,则加载任务,有数据唤醒所有等待线程继续执行,没数据线程sleep SleepTimeNoData时间,并继续加载任务数据。

public void run(){
try {
long startTime =0;
while(true){
this.m_lockObject.addThread();
Object executeTask;
while (true) {
if(this.isStopSchedule == true){//停止队列调度
this.m_lockObject.realseThread();
this.m_lockObject.notifyOtherThread();//通知所有的休眠线程
synchronized (this.threadList) {
this.threadList.remove(Thread.currentThread());
if(this.threadList.size()==0){
this.scheduleManager.unRegisterScheduleServer();
}
}
return;
} //加载调度任务
if(this.isMutilTask == false){
executeTask = this.getScheduleTaskId();
}else{
executeTask = this.getScheduleTaskIdMulti();
} if(executeTask == null){
break;
} try {//运行相关的程序
startTime =scheduleManager.scheduleCenter.getSystemTime();
if (this.isMutilTask == false) {
if (((IScheduleTaskDealSingle) this.taskDealBean).execute(executeTask,scheduleManager.getScheduleServer().getOwnSign()) == true) {
addSuccessNum(1, scheduleManager.scheduleCenter.getSystemTime()
- startTime,
"com.taobao.pamirs.schedule.TBScheduleProcessorSleep.run");
} else {
addFailNum(1, scheduleManager.scheduleCenter.getSystemTime()
- startTime,
"com.taobao.pamirs.schedule.TBScheduleProcessorSleep.run");
}
} else {
if (((IScheduleTaskDealMulti) this.taskDealBean)
.execute((Object[]) executeTask,scheduleManager.getScheduleServer().getOwnSign()) == true) {
addSuccessNum(((Object[]) executeTask).length,scheduleManager.scheduleCenter.getSystemTime()
- startTime,
"com.taobao.pamirs.schedule.TBScheduleProcessorSleep.run");
} else {
addFailNum(((Object[]) executeTask).length,scheduleManager.scheduleCenter.getSystemTime()
- startTime,
"com.taobao.pamirs.schedule.TBScheduleProcessorSleep.run");
}
}
}catch (Throwable ex) {
if (this.isMutilTask == false) {
addFailNum(1,scheduleManager.scheduleCenter.getSystemTime()- startTime,
"TBScheduleProcessor.run");
} else {
addFailNum(((Object[]) executeTask).length, scheduleManager.scheduleCenter.getSystemTime()
- startTime,
"TBScheduleProcessor.run");
}
logger.warn("Task :" + executeTask + " 处理失败", ex);
}
}
//当前队列中所有的任务都已经完成了。
if(logger.isTraceEnabled()){
logger.trace(Thread.currentThread().getName() +":当前运行线程数量:" +this.m_lockObject.count());
}
if (this.m_lockObject.realseThreadButNotLast() == false) {
int size = 0;
Thread.currentThread().sleep(100);
startTime =scheduleManager.scheduleCenter.getSystemTime();
// 装载数据
size = this.loadScheduleData();
if (size > 0) {
this.m_lockObject.notifyOtherThread();
} else {
//判断当没有数据的是否,是否需要退出调度
if (this.isStopSchedule == false && this.scheduleManager.isContinueWhenData()== true ){
if(logger.isTraceEnabled()){
logger.trace("没有装载到数据,start sleep");
}
this.isSleeping = true;
Thread.currentThread().sleep(this.scheduleManager.getTaskTypeInfo().getSleepTimeNoData());
this.isSleeping = false; if(logger.isTraceEnabled()){
logger.trace("Sleep end");
}
}else{
//没有数据,退出调度,唤醒所有沉睡线程
this.m_lockObject.notifyOtherThread();
}
}
this.m_lockObject.realseThread();
} else {// 将当前线程放置到等待队列中。直到有线程装载到了新的任务数据
if(logger.isTraceEnabled()){
logger.trace("不是最后一个线程,sleep");
}
this.m_lockObject.waitCurrentThread();
}
}
}
catch (Throwable e) {
logger.error(e.getMessage(), e);
}
}

TBSchedule思考与挑战

1)Zookeeper节点遍历优化

列如存在上图目录节点深入理解分布式调度框架TBSchedule及源码分析,原有的查找节点数有些问题,不能完全删除目录。我这边提供的思想是递归查找目录树。最终结果为A-B-E-C-F-D,删除节点的时候从最后一个节点删除,不会出现子目录存在而直接删除父节点的操作。代码如下:

    /**
* 使用递归遍历所有结点
*
* @param zk
* @param path
* @param dealList
* @throws Exception
* @throws InterruptedException
*/
private static void getTree(ZooKeeper zk, String path, List<String> dealList)
throws Exception, InterruptedException {
//添加父目录
dealList.add(path);
List<String> children = zk.getChildren(path, false);
if (path.charAt(path.length() - 1) != '/') {
path = path + "/";
}
//添加子目录
for (int i = 0; i < children.size(); i++) {
getTree(zk, path + children.get(i), dealList);
} }

2)线程优化

通过上面TBSchedule的源码分析,我们知道一个任务调度处理器,会创建一个timer根据cron表达式执行resume和pause操作。每一次resume都会创建TBScheduleProcessorSleep,然后初始化多个线程。

当该timer进行N次调度resume的时候,也就是系统会创建N*threadNum个线程,执行pause操作,则这些线程将会销毁。我的建议是每一个任务调度处理器,都指定1个线程数的cacheThreadPool线程池。可能会有人说,为何不指定一个ThreadNum数的fixedThreadPool。因为当timer执行多次resume的时候,如果上一次的resume还没有完成,线程池中没有空闲的线程来执行新的task,会造成线程依赖而下一调度的超时或者失败。指定cacheThreadPool,根据ThreadNum值向线程池submit   ThreadNum个runnable对象。

3)锁优化

在任务执行器TBScheduleProcessorSleep中,t通过加载任务item (List<TaskItemDefine> taskItems),执行taskDealBean.selectTasks方法。获取到的数据存放在CopyOnWriteArrayList中。这里简单的介绍下写时拷贝容器CopyOnWriteArrayList,其对并发读不会加锁,而对并发写同步,当有一个写请求,首先获取锁 ,然后复制当前容器内数据,进行增删改,最后替换掉原有的数组引用,从而达到现场安全的目的,实际上该容器非常适合读多写少的场景。而目前的场景并没有读get的操作。获取容器元素调用remove()方法,同样获取锁。

既然读已经同步,那么在获取任务的时候,就不需要加synchronized关键字了。原有代码如下:

public synchronized Object getScheduleTaskId() { //可以去除synchronized
if (this.taskList.size() > 0) return this.taskList.remove(0); // 按正序处理 return null; }

4)设计优化

整个TBSchedule的调度,默认两秒内会执行refresh()操作,停止所有的任务调度器然后重新创建新的任务调度器。这样的好处可以使得某一个调度节点宕机,或者网络原因导致心跳失败,再或者在控制台修改了调度策略配置信息。可以动态的生效。但是如果能够基于ZK的watch机制,对系统的消耗会更小。由于在factory目录下创建的都是瞬时节点,如果某一个server宕机。zk会watch到相应的事件。同样,在ScheduleTaskType下的数据发生改变,zk同样可以watch到相应的事件。如果发现出现了上述几种情况,那么TBSchedule可以执行refresh()操作了。

总结

  TBSchedule的使用场景还是非常广泛,如定时数据同步,日志上报等等。不同于quartz的抢占式任务调度,TBSchedule更侧重于任务多分片并行处理,基于分布式集群提高任务处理能力。知其然且知其所以然有助于更好的使用框架,并解决实际问题。

更多资料:http://geek.csdn.net/news/detail/65738

源码:http://code.taobao.org/p/tbschedule/src/

上一篇:Bytom Dapp 开发笔记(三):Dapp Demo前端源码分析


下一篇:尝试制作了一个Panorama