这两个看起来是同一个问题,1.11是支持的,可以看一下TableEnvironment.create_statement_set(): 
https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/python/table-api-users-guide/table_environment.html#executeexplain-jobs

> 在 2020年9月9日,上午11:31,whh_960101 <[email protected]> 写道:
> 
> 您好,我使用pyflink时的代码如下,有如下两个问题:
> 1.
> source  = st_env.from_path('source') 
> #st_env是StreamTableEnvironment,source是kafka源端
> main_table = source.select(".......")
> sub_table = source.select(".......")
> main_table.execute_insert('sink').get_job_client().get_job_execution_result().result()
> sub_table.execute_insert('sink').get_job_client().get_job_execution_result().result()
> 
> 
> 最终发现只insert了main_table,请问遇见这种情况该怎么处理,就是如何插入多个表?
> 
> 
> 2.
> for i in range(1,20):
>     sub_table = source.select("...%s...%d...." 
> %(str(i),i))#我的select语句是一个动态拼接的sql,在一个for循环中,获取多个sub_table
>     
> sub_table.execute_insert('sink').get_job_client().get_job_execution_result().result()
>  #这种方式是否合理,因为也是测试无法插入多个表,有没有什么解决方案
> 
> 
> 以上两个问题希望您们能够给予解答!感谢!
> 
> 
> 
> 
> 

回复