libenchao commented on a change in pull request #12759:
URL: https://github.com/apache/flink/pull/12759#discussion_r446643889



##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。

Review comment:
       `table 源端对外部数据拥有多种支持类型(例如 数据库,键值对存储,消息队列,或者是文件系统)` ->  `table source 
用于读取存储在外部系统(例如数据库、键值存储、消息队列或者文件系统)中的数据`

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。

Review comment:
       感觉这句话有一点别扭:`Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理`  
   你觉得改成这样是不是会好一点:`Flink Table 和 SQL 可以连接到外部系统进行批和流的读写` ?
   

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。

Review comment:
       ```suggestion
   <span class="label label-info">注意</span>如果你想要实现自定义 table source 或 sink, 可以查看 
[自定义 source 和 sink]({% link dev/table/sourceSinks.zh.md %})。
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。
 
-The following code shows a full example of how to connect to Kafka for reading 
Json records.
+接下来展示的代码是一个富具有代表性的如何去连接kafka去读取 Json 结构的消息体。
 
 <div class="codetabs" markdown="1">
 <div data-lang="SQL" markdown="1">
 {% highlight sql %}
 CREATE TABLE MyUserTable (
-  -- declare the schema of the table
+  -- 声明表的表结构
   `user` BIGINT,
   message STRING,
   ts TIMESTAMP,
-  proctime AS PROCTIME(), -- use computed column to define proctime attribute
-  WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- use WATERMARK statement to 
define rowtime attribute
+  proctime AS PROCTIME(), -- 使用计算列定义 proctime 属性
+  WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- 使用水印语句定义行时属性

Review comment:
       ```suggestion
     WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- 使用 WATERMARK 语句定义事件时间属性
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。
 
-The following code shows a full example of how to connect to Kafka for reading 
Json records.
+接下来展示的代码是一个富具有代表性的如何去连接kafka去读取 Json 结构的消息体。
 
 <div class="codetabs" markdown="1">
 <div data-lang="SQL" markdown="1">
 {% highlight sql %}
 CREATE TABLE MyUserTable (
-  -- declare the schema of the table
+  -- 声明表的表结构
   `user` BIGINT,
   message STRING,
   ts TIMESTAMP,
-  proctime AS PROCTIME(), -- use computed column to define proctime attribute
-  WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- use WATERMARK statement to 
define rowtime attribute
+  proctime AS PROCTIME(), -- 使用计算列定义 proctime 属性

Review comment:
       ```suggestion
     proctime AS PROCTIME(), -- 使用计算列定义处理时间属性
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。

Review comment:
       `在源端或者目标端注册完成之后。 所注册 table 通过 Table API 和 SQL 的声明方式去访问和使用。` -> `在 source 
或 sink 注册完成之后,就可以在 Table API 和 SQL 中访问它们了。`

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>

Review comment:
       ```suggestion
         <td>有界和无界的扫描和查询</td>
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。
 
-The following code shows a full example of how to connect to Kafka for reading 
Json records.
+接下来展示的代码是一个富具有代表性的如何去连接kafka去读取 Json 结构的消息体。

Review comment:
       ```suggestion
   下面的代码展示了如何读取 Kafka 并且用 Json 解析数据的一个完整的例子。
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。

Review comment:
       `这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。` -> 
`本文档主要描述如何使用内置支持的连接器(connector)注册 table source 和 sink。`

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。

Review comment:
       `可以支持指定类型的源端和目标端, 它们目前支持的格式有 CSV,Avro,Parquet,ORC。` -> `不同的 source 和 
sink 支持不同的数据格式,例如 CSV、Avro、Parquet 或者 ORC。`

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。

Review comment:
       ```suggestion
   <span class="label label-danger">注意</span> Flink Table & SQL 在 1.11.0 
之后引入了一组新的连接器选项, 如果你现在还在使用遗留(legacy)连接器选项,可以查阅 [遗留文档]({% link 
dev/table/connect.zh.md %})。
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。

Review comment:
       个人感觉将`NOTE`翻译成`注意`可能更合适一些。

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器

Review comment:
       ```suggestion
   已经支持的连接器
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>

Review comment:
       ```suggestion
         <td>无界的扫描</td>
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>

Review comment:
       ```suggestion
         <td>有界的扫描和查询</td>
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。

Review comment:
       ```suggestion
   Flink 支持使用 SQL 建表语句来进行注册 table。可以定义表的名称、表结构、以及连接外部系统用的一些选项。
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>

Review comment:
       ```suggestion
         <td>有界的扫描和查询</td>
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。
 
-The following code shows a full example of how to connect to Kafka for reading 
Json records.
+接下来展示的代码是一个富具有代表性的如何去连接kafka去读取 Json 结构的消息体。
 
 <div class="codetabs" markdown="1">
 <div data-lang="SQL" markdown="1">
 {% highlight sql %}
 CREATE TABLE MyUserTable (
-  -- declare the schema of the table
+  -- 声明表的表结构

Review comment:
       ```suggestion
     -- 声明表结构
   ```

##########
File path: docs/dev/table/connectors/index.zh.md
##########
@@ -25,108 +25,108 @@ under the License.
 -->
 
 
-Flink's Table API & SQL programs can be connected to other external systems 
for reading and writing both batch and streaming tables. A table source 
provides access to data which is stored in external systems (such as a 
database, key-value store, message queue, or file system). A table sink emits a 
table to an external storage system. Depending on the type of source and sink, 
they support different formats such as CSV, Avro, Parquet, or ORC.
+Flink Table 和 SQL 可以支持对外部系统进行读和写的 table 批和流的处理。table 源端对外部数据拥有多种支持类型(例如 
数据库,键值对存储,消息队列,或者是文件系统)。table 目标端可以将表存储到另一个外部的系统中。可以支持指定类型的源端和目标端, 它们目前支持的格式有 
CSV,Avro,Parquet,ORC。
 
-This page describes how to register table sources and table sinks in Flink 
using the natively supported connectors. After a source or sink has been 
registered, it can be accessed by Table API & SQL statements.
+这页主要描述的是如何使用现有flink 原生态支持连接器去注册 table 源端和 table 目标端。 在源端或者目标端注册完成之后。 所注册 table 
通过 Table API 和 SQL 的声明方式去访问和使用。
 
-<span class="label label-info">NOTE</span> If you want to implement your own 
*custom* table source or sink, have a look at the [user-defined sources & sinks 
page]({% link dev/table/sourceSinks.zh.md %}).
+<span class="label label-info">笔记</span>如果你想要实现属于你自定义 table 源端 或 目标端。 可以查看 
[user-defined sources & sinks page]({% link dev/table/sourceSinks.zh.md %})。
 
-<span class="label label-danger">Attention</span> Flink Table & SQL introduces 
a new set of connector options since 1.11.0, if you are using the legacy 
connector options, please refer to the [legacy documentation]({% link 
dev/table/connect.zh.md %}).
+<span class="label label-danger">注意</span> Flink Table & SQL 在新版本 1.11.0 
之后引入了一组新的连接器选项, 如果你现在正在使用 以前历史连接器 选项, 可以查阅 [legacy documentation]({% link 
dev/table/connect.zh.md %})。
 
 * This will be replaced by the TOC
 {:toc}
 
-Supported Connectors
+已经支持连接器
 ------------
 
-Flink natively support various connectors. The following tables list all 
available connectors.
+Flink 原生支持各种不同的连接器。下表列出了所有可用的连接器。
 
 <table class="table table-bordered">
     <thead>
       <tr>
-        <th class="text-left">Name</th>
-        <th class="text-center">Version</th>
-        <th class="text-center">Source</th>
-        <th class="text-center">Sink</th>
+        <th class="text-left">名称</th>
+        <th class="text-center">版本</th>
+        <th class="text-center">源端</th>
+        <th class="text-center">目标端</th>
       </tr>
     </thead>
     <tbody>
     <tr>
       <td><a href="{% link dev/table/connectors/filesystem.zh.md 
%}">Filesystem</a></td>
       <td></td>
-      <td>Bounded and Unbounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件的,和无条件的,检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/elasticsearch.zh.md 
%}">Elasticsearch</a></td>
       <td>6.x & 7.x</td>
-      <td>Not supported</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>不支持</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/kafka.zh.md %}">Apache 
Kafka</a></td>
       <td>0.10+</td>
-      <td>Unbounded Scan</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>无条件查询</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/jdbc.zh.md %}">JDBC</a></td>
       <td></td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     <tr>
       <td><a href="{% link dev/table/connectors/hbase.zh.md %}">Apache 
HBase</a></td>
       <td>1.4.x</td>
-      <td>Bounded Scan, Lookup</td>
-      <td>Streaming Sink, Batch Sink</td>
+      <td>有条件查询, 检索</td>
+      <td>流式,批处理</td>
     </tr>
     </tbody>
 </table>
 
 {% top %}
 
-How to use connectors
+如何使用连接器
 --------
 
-Flink supports to use SQL CREATE TABLE statement to register a table. One can 
define the table name, the table schema, and the table options for connecting 
to an external system.
+FLink 支持使用 SQL 建表语句来进行注册 table。其中包括可以定义 table 名称,table 结构映射,也可以在 table 
参数来自定义连接外部系统的所需要的参数。
 
-The following code shows a full example of how to connect to Kafka for reading 
Json records.
+接下来展示的代码是一个富具有代表性的如何去连接kafka去读取 Json 结构的消息体。
 
 <div class="codetabs" markdown="1">
 <div data-lang="SQL" markdown="1">
 {% highlight sql %}
 CREATE TABLE MyUserTable (
-  -- declare the schema of the table
+  -- 声明表的表结构
   `user` BIGINT,
   message STRING,
   ts TIMESTAMP,
-  proctime AS PROCTIME(), -- use computed column to define proctime attribute
-  WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- use WATERMARK statement to 
define rowtime attribute
+  proctime AS PROCTIME(), -- 使用计算列定义 proctime 属性
+  WATERMARK FOR ts AS ts - INTERVAL '5' SECOND  -- 使用水印语句定义行时属性
 ) WITH (
-  -- declare the external system to connect to
+  -- 申明定义外部系统连接

Review comment:
       ```suggestion
     -- 声明要连接的外部系统
   ```




----------------------------------------------------------------
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org


Reply via email to