插入csv文件数据会自动killed掉taos进程导致仅插入了部分数据

【TDengine 使用环境】
预生产环境

【TDengine 版本】
3.3.7.0
【操作系统以及版本】
opencloudos 9
【部署方式】容器/非容器部署
docker容器


数据文件是137W条数据
@Jade

csv 多大?可以压缩发我下

517MB,每次插入都是20W就停止了,我现在是把文件拆成19W一个文件插入的
通过网盘分享的文件:out.zip
链接: 百度网盘 请输入提取码 提取码: w5x7 复制这段内容后打开百度网盘手机App,操作更方便哦

hi 我这边不需要拆分哈 ,我需要完整的单个数据文件,然后一次性导入观察现象。

需具体分析,如遇相同问题,请重新发帖。

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。