【TDengine 使用环境】
测试
【TDengine 版本】
3.3.5.2
【操作系统以及版本】
ubuntu 24.04
【部署方式】容器/非容器部署
helm chart
【集群节点数】
3
【集群副本数】
3
【描述业务影响】
【问题复现路径/shan】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
使用社区版3.3.5.2部署高可用模式,删除其中一个节点的数据后重新启动数据不会自动同步,节点也没有重新加入集群
【资源配置】
【报错完整截图】(不要大段的粘贴报错代码,论坛直接看报错代码不直观)
删除一节点数据是指的如何删除?如果配置信息全部删除了,那就得重建节点,然后通过restore节点恢复。
我是通过Helm chart包部署的,数据存储在pvc中,将原本的3副本节点先缩成2个节点,然后删除tdengine-2 pod的pvc数据,再重新扩容成3个副本,tdengine-2的pvc目录数据没有从其它两个节点自动同步。
这种类似删除节点再添加,得手工进行restore操作。
restore dnode <dnode_id>;# 恢复dnode上的mnode,所有vnode和qnode
restore mnode on dnode <dnode_id>;# 恢复dnode上的mnode
restore vnode on dnode <dnode_id> ;# 恢复dnode上的所有vnode
restore qnode on dnode <dnode_id>;# 恢复dnode上的qnode
是通过这几个命令恢复吗? 我尝试过也没有恢复成功,这个是bug吗?
show dnodes;
show vnodes;
这两个命令的输出,请贴下,我看下状态。
当恢复时,需要将节点3重建,让其状态为ready。 这时其数据为空mnode、vnode均为不正常。
然后执行restore,如果还有问题,请上传节点3日志,或提供远程,我们看下。
只要节点3名称为taosdlog.?的最近一个文件,压缩后上传上来。