hi,JDBC 的问题目前已经解决了,但是又出了个新的问题,是 Kafka 的,还是同样的这个任务,Pyflink的,从Mysql读数据然后写入Kafka,任务结束后,还是有内存不释放,目前从jmap看应该是如下导致的。
class com.sun.jmx.mbeanserver.StandardMBeanIntrospector @ 0xad5d01b0 com.sun.jmx.mbeanserver.MBeanIntrospector$MBeanInfoMap @ 0xad715a00 java.util.WeakHashMap$Entry[32] @ 0xafc583f0 java.util.WeakHashMap$Entry @ 0xb10dd228 class org.apache.flink.kafka.shaded.org.apache.kafka.common.utils.AppInfoParser$AppInfo @ 0xb1036c38 org.apache.flink.util.ChildFirstClassLoader @ 0xb0d0a1e8 python的sql里,connector的设置没有什么额外设置,如下: ) WITH ( 'connector' = 'kafka', 'topic' = 'stream-sink', 'properties.bootstrap.servers' = 'xxx:9092', 'properties.client.id' = 'statistics-p', 'format' = 'json', 'json.fail-on-missing-field' = 'false' ) Jar包用的官网提供的 https://repo.maven.apache.org/maven2/org/apache/flink/flink-sql-connector-kafka_2.11/1.12.0/flink-sql-connector-kafka_2.11-1.12.0.jar 包。 不知道这种情况是否有遇到过? 从taskmanager的日志看,任务期间有报: 2021-01-21 20:06:28,940 WARN org.apache.flink.kafka.shaded.org.apache.kafka.common.utils.AppInfoParser [] - Error while loading kafka-version.properties: null 2021-01-21 20:06:28,940 INFO org.apache.flink.kafka.shaded.org.apache.kafka.common.utils.AppInfoParser [] - Kafka version: unknown 2021-01-21 20:06:28,940 INFO org.apache.flink.kafka.shaded.org.apache.kafka.common.utils.AppInfoParser [] - Kafka commitId: unknown 这种日志,是可能这个原因导致的吗? 还有 kafka-version.properties 这个文件在pyflink里需要怎么添加呢? -- Sent from: http://apache-flink.147419.n8.nabble.com/