DTS实现增量迁移/同步的基本原理是对源库的增量数据抽取和增量数据同步是两个独立的进程,而抽取的增量数据保存在一个高可用的存储系统中(该系统最多只保存最近一周抽取的增量数据).当增量迁移/同步进程无法获取指定时间点的增量数据时就会出现该错误.当全量迁移时间太长或者任务暂停时间过长时,很有可能就会出现该错误.
一.错误列表
DTS-073102: Record Crawler error, cause by [com.alibaba.drc.biz.route.RoutingException: Found no feasible stores for name [aliyun_hz_ecs_EE502976FC1644C3-1-0] and checkpoint [::::1517922493:], data range available: from [100.100.64.1:8404:1303:103253:1519572109:3726658] to [100.100.64.1:8404:1319:9370:1519909026:4122410]]
原因1: 任务暂停时间过长,增量数据已经被清理了.
解决方案: 删除该任务再重建.
原因2: 源库一直没有写入操作.
解决方案: 在源库中执行一些写入操作(主要目的是产生WAL日志),然后点击重新启动.
原因3: 源库连接不上,导致日志抽取进程无法正常抽取增量数据.
解决方案: 删除该任务再重建.
原因4: 源库的日志文件不在了,导致日志抽取进程无法正常抽取增量数据.
解决方案: 删除该任务再重建.
原因5: 全量迁移数据消耗时间太长,增量数据已经被清理了.
解决方案: 删除该任务再重建.
DTS-073102: Record Crawler error, cause by [0:java.lang.Exception: get valid topic [aliyun_sh_rm_uf6p59cfmuh5e25ri-1-0] failed].
原因: RDS实例被释放了,增量抽取进程自动退出并清理所有数据.
解决方案: 删除该任务再重建.