找回密码
 立即注册
首页 业界区 安全 flinkcdc中checkpoint不成功问题排查

flinkcdc中checkpoint不成功问题排查

舒菀菀 2025-7-24 13:22:51
本文分享自天翼云开发者社区《flinkcdc中checkpoint不成功问题排查》,作者:徐****东
使用flink-1.16和flinkcdc-3.0进行数据接入,采用standalone模式。运行一段时间后checkpoint开始失败,但日志中没有报错信息。
1.png

因savepoint和checkpoint机制一致,使用手动打savepoint断点的方式,尝试查明失败原因。执行指令:
/usr/local/flink/bin/flink savepoint ${job_id} /usr/local/flink-cdc/savepoint/ 
执行后报错,发现如下报错信息。
[1]:Caused by: org.apache.flink.util.SerializedThrowable: java.util.concurrent.ExecutionException: java.io.IOException: Size of the state is larger than the maximum permitted memory-backed state. Size=5325329, maxSize=5242880. Consider using a different checkpoint storage, like the FileSystemCheckpointStorage. 

经分析,是作业的state,默认使用内存存储。随着作业的运行,state超出允许的最大内存,所以无法存储,导致checkpoint被cancel进而失败。 
直接原因是作业的state,默认使用内存存储。随着作业的运行,state超出允许的最大内存,所以无法存储,导致checkpoint被cancel进而失败。 
尝试在flink-conf.yaml中添加如下参数,加大内存限制。发现checkpoint仍会超出内存限制失败。排查源码发现,flink在1.16已去掉该参数。官方建议standalone模式仅作为测试,因此不提供加大内存限制的方式。
state.backend.memory.max-state-size: 10000000 
正确解决办法为,使用hdfs存储checkpoint。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

2025-12-2 14:16:14

举报

2025-12-6 15:20:36

举报

2025-12-20 11:53:54

举报

2026-1-2 11:47:27

举报

喜欢鼓捣这些软件,现在用得少,谢谢分享!
2026-1-4 00:38:48

举报

2026-1-12 22:46:02

举报

2026-1-18 13:43:27

举报

2026-1-20 16:23:46

举报

懂技术并乐意极积无私分享的人越来越少。珍惜
2026-1-29 03:47:54

举报

2026-2-2 11:30:29

举报

12下一页
您需要登录后才可以回帖 登录 | 立即注册