我们正在腾讯云上测试doris 1.2.0版本的服务. 我们建了以下这张表 CREATE TABLE pool.user_match ( operate_date INT, user_id VARCHAR(256), project_id INT, time_type TINYINT, match_num INT ) DUPLICATE KEY(`operate_date`, `user_id`) DISTRIBUTED BY HASH(`user_id`) BUCKETS 2
使用jdbc程序进行插入,连接字符串如下: "jdbc:mysql://10.0.0.12:9030?useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true&autoReconnect=true&useUnicode=true&characterEncoding=UTF-8&rewriteBatchedStatements=true" 已开启;rewriteBatchedStatements=true 程序中每10000条进行一次executeBacth(); 发现大约每秒能插入75000条数据,同时可能出现如下报错: 我们同时还进行了腾讯云上的clickhouse测试,用jdbc的形式,相同的代码,插入效率大约是1900000条/s,大约相差了20多倍.我们应该如何修改代码或者配置来接近此效率呢?望回复 panf...@playorcas.com