而且pyflink既然打包了flink的完整包,那么真正部署运行的时候是用这个呢?还是需要执行的机器上单独部署一个flink呢?

yidan zhao <hinobl...@gmail.com> 于2022年7月27日周三 17:34写道:
>
> 我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。
>
> yidan zhao <hinobl...@gmail.com> 于2022年7月27日周三 10:40写道:
> >
> > pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> > 但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
> > kafka-clients-2.8.1.jar 却报:
> > py4j.protocol.Py4JError:
> > org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> > not exist in the JVM
> >
> > Weihua Hu <huweihua....@gmail.com> 于2022年7月26日周二 21:21写道:
> > >
> > > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> > >
> > > Best,
> > > Weihua
> > >
> > >
> > > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao <hinobl...@gmail.com> wrote:
> > >
> > > > 如题,我看注释和文档。
> > > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > > >

回复