This is an automated email from the ASF dual-hosted git repository.

morningman pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git


The following commit(s) were added to refs/heads/master by this push:
     new a992c8f01d0 (docs)(fix) Fix deadlink of Lakehouse docs in version 2.1 
and Dev (#608)
a992c8f01d0 is described below

commit a992c8f01d088aa2d866dc2269071f0383dddc95
Author: KassieZ <139741991+kass...@users.noreply.github.com>
AuthorDate: Tue Apr 30 21:08:22 2024 +0800

    (docs)(fix) Fix deadlink of Lakehouse docs in version 2.1 and Dev (#608)
---
 .../current/lakehouse/database/max-compute.md      | 22 +++++-----
 .../current/lakehouse/datalake-analytics/hive.md   | 50 +++++++++++-----------
 .../current/lakehouse/datalake-analytics/hudi.md   | 16 +++----
 .../current/lakehouse/datalake-analytics/paimon.md | 28 ++++++------
 .../current/lakehouse/external-statistics.md       | 12 +++---
 .../current/lakehouse/lakehouse-overview.md        | 26 +++++------
 .../version-2.0/lakehouse/lakehouse-overview.md    | 22 +++++-----
 .../version-2.1/lakehouse/database/max-compute.md  | 22 +++++-----
 .../lakehouse/datalake-analytics/hive.md           | 50 +++++++++++-----------
 .../lakehouse/datalake-analytics/hudi.md           | 16 +++----
 .../lakehouse/datalake-analytics/paimon.md         | 29 ++++++-------
 .../version-2.1/lakehouse/external-statistics.md   | 12 +++---
 .../version-2.1/lakehouse/lakehouse-overview.md    | 28 ++++++------
 13 files changed, 164 insertions(+), 169 deletions(-)

diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/database/max-compute.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/database/max-compute.md
index 9ba66a2e9e7..275d843bf7b 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/database/max-compute.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/database/max-compute.md
@@ -27,13 +27,13 @@ under the License.
 
 # 阿里云 MaxCompute
 
-MaxCompute是阿里云上的企业级SaaS(Software as a Service)模式云数据仓库。
+MaxCompute 是阿里云上的企业级 SaaS(Software as a Service)模式云数据仓库。
 
 > [什么是 
 > MaxCompute](https://help.aliyun.com/zh/maxcompute/product-overview/what-is-maxcompute?spm=a2c4g.11174283.0.i1)
 
 ## 使用须知
-1. Max Compute Catalog基于[Max Compute Tunnel 
SDK](https://help.aliyun.com/zh/maxcompute/user-guide/overview-28?spm=a2c4g.11186623.0.0.376d66c2FNv6aS)开发。查询性能有一定限制。
-2. 在一次查询中,每个Scan都会创建Max Compute的DownloadSession对象,并行访问Max 
Compute时性能会下降,建议使用Max Compute Catalog时,尽量减少查询的分区数量和数据大小。
+1. Max Compute Catalog 基于[Max Compute Tunnel 
SDK](https://help.aliyun.com/zh/maxcompute/user-guide/overview-28?spm=a2c4g.11186623.0.0.376d66c2FNv6aS)开发。查询性能有一定限制。
+2. 在一次查询中,每个 Scan 都会创建 Max Compute 的 DownloadSession 对象,并行访问 Max Compute 
时性能会下降,建议使用 Max Compute Catalog 时,尽量减少查询的分区数量和数据大小。
 
 ## 连接 Max Compute
 
@@ -47,31 +47,31 @@ CREATE CATALOG mc PROPERTIES (
 );
 ```
 
-* 
`mc.region`:MaxCompute开通的地域。可以从Endpoint中找到对应的Region,参阅[Endpoints](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0)。
-* 
`mc.default.project`:MaxCompute项目。可以在[MaxCompute项目列表](https://maxcompute.console.aliyun.com/cn-beijing/project-list)中创建和管理。
+* `mc.region`:MaxCompute 开通的地域。可以从 Endpoint 中找到对应的 
Region,参阅[Endpoints](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0)。
+* `mc.default.project`:MaxCompute 项目。可以在[MaxCompute 
项目列表](https://maxcompute.console.aliyun.com/cn-beijing/project-list)中创建和管理。
 * `mc.access_key`:AccessKey。可以在 
[阿里云控制台](https://ram.console.aliyun.com/manage/ak) 中创建和管理。
 * `mc.secret_key`:SecretKey。可以在 
[阿里云控制台](https://ram.console.aliyun.com/manage/ak) 中创建和管理。
 * `mc.public_access`: 当配置了`"mc.public_access"="true"`,可以开启公网访问,建议测试时使用。
 
 ## 限额
 
-连接MaxCompute时,按量付费的Quota查询并发和使用量有限,如需增加资源,请参照MaxCompute文档。参见[配额管理](https://help.aliyun.com/zh/maxcompute/user-guide/manage-quotas-in-the-new-maxcompute-console).
+连接 MaxCompute 时,按量付费的 Quota 查询并发和使用量有限,如需增加资源,请参照 MaxCompute 
文档。参见[配额管理](https://help.aliyun.com/zh/maxcompute/user-guide/manage-quotas-in-the-new-maxcompute-console).
 
 ## 列类型映射
 
-和 Hive Catalog 一致,可参阅 [Hive Catalog](./hive.md) 中 **列类型映射** 一节。
+和 Hive Catalog 一致,可参阅 [Hive Catalog](../datalake-analytics/hive) 中 **列类型映射** 
一节。
 
 ## 自定义服务地址
 
-默认情况下,Max Compute Catalog根据region去默认生成公网的endpoint。
+默认情况下,Max Compute Catalog 根据 region 去默认生成公网的 endpoint。
 
-除了默认的endpoint地址外,Max Compute Catalog也支持在属性中自定义服务地址。
+除了默认的 endpoint 地址外,Max Compute Catalog 也支持在属性中自定义服务地址。
 
 使用以下两个属性:
 * `mc.odps_endpoint`:Max Compute Endpoint。
-* `mc.tunnel_endpoint`: Tunnel Endpoint,Max Compute Catalog使用Tunnel SDK获取数据。
+* `mc.tunnel_endpoint`: Tunnel Endpoint,Max Compute Catalog 使用 Tunnel SDK 获取数据。
 
-Max Compute Endpoint和Tunnel 
Endpoint的配置请参见[各地域及不同网络连接方式下的Endpoint](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints)
+Max Compute Endpoint 和 Tunnel Endpoint 的配置请参见[各地域及不同网络连接方式下的 
Endpoint](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints)
 
 示例:
 
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hive.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hive.md
index 7e929d73870..8082bf53746 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hive.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hive.md
@@ -95,7 +95,7 @@ ViewFS 工作原理和参数配置可以参考 hadoop 相关文档,比如 http
 
 ### Hive On JuiceFS
 
-数据存储在JuiceFS,示例如下:
+数据存储在 JuiceFS,示例如下:
 
 (需要把 `juicefs-hadoop-x.x.x.jar` 放在 `fe/lib/` 和 `apache_hdfs_broker/lib/` 下)
 
@@ -126,9 +126,9 @@ CREATE CATALOG hive PROPERTIES (
 
 可选属性:
 
-* s3.connection.maximum: s3最大连接数,默认50
-* s3.connection.request.timeout:s3请求超时时间,默认3000ms
-* s3.connection.timeout: s3连接超时时间,默认1000ms
+* s3.connection.maximum:s3 最大连接数,默认 50
+* s3.connection.request.timeout:s3 请求超时时间,默认 3000ms
+* s3.connection.timeout:s3 连接超时时间,默认 1000ms
 
 ### Hive On OSS
 
@@ -168,7 +168,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ### Hive With Glue
 
-> 连接Glue时,如果是在非EC2环境,需要将EC2环境里的 `~/.aws` 目录拷贝到当前环境里。也可以下载[AWS 
Cli](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html)工具进行配置,这种方式也会在当前用户目录下创建`.aws`目录。
+> 连接 Glue 时,如果是在非 EC2 环境,需要将 EC2 环境里的 `~/.aws` 目录拷贝到当前环境里。也可以下载[AWS 
Cli](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html)工具进行配置,这种方式也会在当前用户目录下创建`.aws`目录。
 
 ```sql
 CREATE CATALOG hive PROPERTIES (
@@ -191,7 +191,7 @@ CREATE CATALOG hive PROPERTIES (
 
 以上缓存信息不会持久化到 Doris 中,所以在 Doris 的 FE 节点重启、切主等操作,都可能导致缓存失效。缓存失效后,Doris 会直接访问 
Hive MetaStore 获取信息,并重新填充缓存。
 
-元数据缓可以根据用户的需要,进行自动、手动,或配置 TTL(Time-to-Live) 的方式进行更新。
+元数据缓可以根据用户的需要,进行自动、手动,或配置 TTL(Time-to-Live)的方式进行更新。
 
 ### 默认行为和 TTL
 
@@ -217,7 +217,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ### 手动刷新
 
-用户需要通过 [REFRESH](../../sql-manual/sql-reference/Utility-Statements/REFRESH.md) 
命令手动刷新元数据。
+用户需要通过 
[REFRESH](../../sql-manual/sql-statements/Utility-Statements/REFRESH.md) 
命令手动刷新元数据。
 
 1. REFRESH CATALOG:刷新指定 Catalog。
 
@@ -269,13 +269,13 @@ CREATE CATALOG hive PROPERTIES (
 
 ### 自动刷新
 
-自动刷新目前仅支持 Hive Metastore 元数据服务。通过让 FE 节点定时读取 HMS 的 notification event 来感知 Hive 
表元数据的变更情况,目前支持处理如下event:
+自动刷新目前仅支持 Hive Metastore 元数据服务。通过让 FE 节点定时读取 HMS 的 notification event 来感知 Hive 
表元数据的变更情况,目前支持处理如下 event:
 
 |事件 | 事件行为和对应的动作 |
 |---|---|
 | CREATE DATABASE | 在对应数据目录下创建数据库。 |
 | DROP DATABASE | 在对应数据目录下删除数据库。 |
-| ALTER DATABASE  | 
此事件的影响主要有更改数据库的属性信息,注释及默认存储位置等,这些改变不影响doris对外部数据目录的查询操作,因此目前会忽略此event。 |
+| ALTER DATABASE  | 此事件的影响主要有更改数据库的属性信息,注释及默认存储位置等,这些改变不影响 doris 
对外部数据目录的查询操作,因此目前会忽略此 event。 |
 | CREATE TABLE | 在对应数据库下创建表。 |
 | DROP TABLE  | 在对应数据库下删除表,并失效表的缓存。 |
 | ALTER TABLE | 如果是重命名,先删除旧名字的表,再用新名字创建表,否则失效该表的缓存。 |
@@ -283,17 +283,17 @@ CREATE CATALOG hive PROPERTIES (
 | DROP PARTITION | 在对应表缓存的分区列表里删除分区,并失效该分区的缓存。 |
 | ALTER PARTITION | 如果是重命名,先删除旧名字的分区,再用新名字创建分区,否则失效该分区的缓存。 |
 
-> 当导入数据导致文件变更,分区表会走ALTER PARTITION event逻辑,不分区表会走ALTER TABLE event逻辑。
+> 当导入数据导致文件变更,分区表会走 ALTER PARTITION event 逻辑,不分区表会走 ALTER TABLE event 逻辑。
 > 
-> 如果绕过HMS直接操作文件系统的话,HMS不会生成对应事件,doris因此也无法感知
+> 如果绕过 HMS 直接操作文件系统的话,HMS 不会生成对应事件,doris 因此也无法感知
 
 该特性在 fe.conf 中有如下参数:
 
-1. `enable_hms_events_incremental_sync`: 是否开启元数据自动增量同步功能,默认关闭。
+1. `enable_hms_events_incremental_sync`: 是否开启元数据自动增量同步功能,默认关闭。
 2. `hms_events_polling_interval_ms`: 读取 event 的间隔时间,默认值为 10000,单位:毫秒。
 3. `hms_events_batch_size_per_rpc`: 每次读取 event 的最大数量,默认值为 500。
 
-如果想使用该特性(华为MRS除外),需要更改HMS的 hive-site.xml 并重启HMS和HiveServer2:
+如果想使用该特性 (华为 MRS 除外),需要更改 HMS 的 hive-site.xml 并重启 HMS 和 HiveServer2:
 
 ```
 <property>
@@ -311,7 +311,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ```
 
-华为的MRS需要更改hivemetastore-site.xml 并重启HMS和HiveServer2:
+华为的 MRS 需要更改 hivemetastore-site.xml 并重启 HMS 和 HiveServer2:
 
 ```
 <property>
@@ -381,7 +381,7 @@ Doris 基于 Iceberg `FileIO` 接口实现了 Broker 查询 HMS Catalog 
Iceberg
 
 ## 集成 Apache Ranger
 
-Apache Ranger是一个用来在Hadoop平台上进行监控,启用服务,以及全方位数据安全访问管理的安全框架。
+Apache Ranger 是一个用来在 Hadoop 平台上进行监控,启用服务,以及全方位数据安全访问管理的安全框架。
 
 Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权。
 
@@ -400,15 +400,15 @@ Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权
        "access_controller.class" = 
"org.apache.doris.catalog.authorizer.ranger.hive.RangerHiveAccessControllerFactory",
        ```
 
-       >注意:
+       >注意:
        >
        > `access_controller.properties.ranger.service.name` 指的是 service 的类型,例如 
`hive`,`hdfs` 等。并不是配置文件中 `ranger.plugin.hive.service.name` 的值。
 
 2. 配置所有 FE 环境:
 
-    1. 将 HMS conf 
目录下的配置文件ranger-hive-audit.xml,ranger-hive-security.xml,ranger-policymgr-ssl.xml复制到
 FE 的 conf 目录下。
+    1. 将 HMS conf 目录下的配置文件 
ranger-hive-audit.xml,ranger-hive-security.xml,ranger-policymgr-ssl.xml 复制到 FE 
的 conf 目录下。
 
-    2. 修改 ranger-hive-security.xml 的属性,参考配置如下:
+    2. 修改 ranger-hive-security.xml 的属性,参考配置如下:
 
         ```sql
         <?xml version="1.0" encoding="UTF-8"?>
@@ -469,15 +469,15 @@ Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权
 
 ### 最佳实践
 
-1. 在ranger端创建用户user1并授权db1.table1.col1的查询权限
+1. 在 ranger 端创建用户 user1 并授权 db1.table1.col1 的查询权限
 
-2. 在ranger端创建角色role1并授权db1.table1.col2的查询权限
+2. 在 ranger 端创建角色 role1 并授权 db1.table1.col2 的查询权限
 
-3. 在doris创建同名用户user1,user1将直接拥有db1.table1.col1的查询权限
+3. 在 doris 创建同名用户 user1,user1 将直接拥有 db1.table1.col1 的查询权限
 
-4. 在doris创建同名角色role1,并将role1分配给user1,user1将同时拥有db1.table1.col1和col2的查询权限
+4. 在 doris 创建同名角色 role1,并将 role1 分配给 user1,user1 将同时拥有 db1.table1.col1 和 col2 
的查询权限
 
-5. Admin 和 Root 用户的权限不受Apache Ranger 的权限控制
+5. Admin 和 Root 用户的权限不受 Apache Ranger 的权限控制
 
 ## 连接 Kerberos 认证的 Hive 集群
 
@@ -549,13 +549,13 @@ CREATE CATALOG hive_krb_ha PROPERTIES (
 
 ### 问题排查
 
-如遇 Kerberos 认证问题,在设置了 JVM 参数 `-Dsun.security.krb5.debug=true` 后,会在 `fe.out` 或 
`be.out` 中打印 Kerberos 认证相关信息。可以参考 [FAQ](../faq.md) 中的相关错误进行排查。
+如遇 Kerberos 认证问题,在设置了 JVM 参数 `-Dsun.security.krb5.debug=true` 后,会在 `fe.out` 或 
`be.out` 中打印 Kerberos 认证相关信息。可以参考 [FAQ](../../faq/lakehouse-faq) 中的相关错误进行排查。
 
 ## Hive Transactional 表
 Hive transactional 表是 Hive 中支持 ACID 
语义的表。详情可见:https://cwiki.apache.org/confluence/display/Hive/Hive+Transactions
 
 ### Hive Transactional 表支持情况:
-|表类型|在 Hive 中支持的操作|Hive 表属性|支持的Hive 版本|
+|表类型 | 在 Hive 中支持的操作|Hive 表属性 | 支持的 Hive 版本|
 |---|---|---|---|
 |Full-ACID Transactional Table |支持 Insert, Update, Delete 
操作|'transactional'='true', 'transactional_properties'='insert_only'|3.x,2.x,其中 
2.x 需要在 Hive 中执行完 major compaction 才可以加载|
 |Insert-Only Transactional Table|只支持 Insert 操作|'transactional'='true'|3.x,2.x|
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hudi.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hudi.md
index b7f2776e38d..a799c642e79 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hudi.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/hudi.md
@@ -36,7 +36,7 @@ under the License.
 | Copy On Write  | Snapshot Query, Time Travel, Icremental Read |
 | Merge On Read  | Snapshot Queries, Read Optimized Queries, Time Travel, 
Icremental Read |
 
-2. 目前支持 Hive Metastore 和兼容 Hive Metastore 类型(例如[AWS Glue](./hive.md)/[Alibaba 
DLF](./dlf.md))的 Catalog。
+2. 目前支持 Hive Metastore 和兼容 Hive Metastore 类型 (例如[AWS Glue](./hive.md)/[Alibaba 
DLF](./dlf.md)) 的 Catalog。
 
 ## 创建 Catalog
 
@@ -57,9 +57,9 @@ CREATE CATALOG hudi PROPERTIES (
 
 可选配置参数:
 
-|参数名|说明|默认值|
+|参数名 | 说明 | 默认值|
 |---|---|---|
-|use_hive_sync_partition|使用hms已同步的分区数据|false|
+|use_hive_sync_partition|使用 hms 已同步的分区数据|false|
 
 ## 列类型映射
 
@@ -71,7 +71,7 @@ Spark 在创建 hudi mor 表的时候,会创建 `_ro` 后缀的 read optimize
 
 ## 查询优化
 
-Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java SDK(通过JNI调用hudi-bundle) 
读取 MOR 表的数据文件。在 upsert 场景下,MOR 依然会有数据文件没有被更新,这部分文件可以通过 parquet native 
reader读取,用户可以通过 [explain](../../advanced/best-practice/query-analysis.md) 命令查看 
hudi scan 的执行计划,`hudiNativeReadSplits` 表示有多少 split 文件通过 parquet native reader 
读取。
+Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java SDK(通过 JNI 调用 
hudi-bundle) 读取 MOR 表的数据文件。在 upsert 场景下,MOR 依然会有数据文件没有被更新,这部分文件可以通过 parquet 
native reader 读取,用户可以通过 [explain](../../query/query-analysis/query-analysis) 
命令查看 hudi scan 的执行计划,`hudiNativeReadSplits` 表示有多少 split 文件通过 parquet native 
reader 读取。
 ```
 |0:VHUDI_SCAN_NODE                                                             
|
 |      table: minbatch_mor_rt                                                  
|
@@ -81,7 +81,7 @@ Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java S
 |      numNodes=6                                                              
|
 |      hudiNativeReadSplits=717/810                                            
|
 ```
-用户可以通过 [profile](../../admin-manual/http-actions/fe/profile-action.md) 查看 Java 
SDK 的性能,例如:
+用户可以通过 [profile](../../admin-manual/fe/profile-action) 查看 Java SDK 的性能,例如:
 ```
 -  HudiJniScanner:  0ns
   -  FillBlockTime:  31.29ms
@@ -98,7 +98,7 @@ Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java S
 
 每一次对 Hudi 表的写操作都会产生一个新的快照,Time Travel 支持读取 Hudi 表指定的 
Snapshot。默认情况下,查询请求只会读取最新版本的快照。
 
-可以使用 `FOR TIME AS OF` 
语句,根据快照的时间([时间格式](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#timetravel)和Hudi官网保持一致)读取历史版本的数据。示例如下:
+可以使用 `FOR TIME AS OF` 语句,根据快照的时间 
([时间格式](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#timetravel)和 
Hudi 官网保持一致) 读取历史版本的数据。示例如下:
 ```
 SELECT * FROM hudi_tbl FOR TIME AS OF "2022-10-07 17:20:37";
 SELECT * FROM hudi_tbl FOR TIME AS OF "20221007172037";
@@ -113,9 +113,9 @@ Doris 提供了 `@incr` 语法支持 Incremental Read:
 ```
 SELECT * from hudi_table@incr('beginTime'='xxx', ['endTime'='xxx'], 
['hoodie.read.timeline.holes.resolution.policy'='FAIL'], ...);
 ```
-`beginTime` 是必须的,时间格式和 hudi 官网 
[hudi_table_changes](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#incremental-query)
 保持一致,支持 "earliest"。`endTime` 选填,默认最新commitTime。兼容 [Spark Read 
Options](https://hudi.apache.org/docs/0.14.0/configurations#Read-Options)。
+`beginTime` 是必须的,时间格式和 hudi 官网 
[hudi_table_changes](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#incremental-query)
 保持一致,支持 "earliest"。`endTime` 选填,默认最新 commitTime。兼容 [Spark Read 
Options](https://hudi.apache.org/docs/0.14.0/configurations#Read-Options)。
 
-支持 Incremental Read 
需要开启[新优化器](../../query-acceleration/nereids.md),新优化器默认打开。通过 `desc` 查看执行计划,可以发现 
Doris 将 `@incr` 转化为 `predicates` 下推给 `VHUDI_SCAN_NODE`:
+支持 Incremental Read 需要开启[新优化器](../../query/nereids/nereids),新优化器默认打开。通过 `desc` 
查看执行计划,可以发现 Doris 将 `@incr` 转化为 `predicates` 下推给 `VHUDI_SCAN_NODE`:
 ```
 |   0:VHUDI_SCAN_NODE(113)                                                     
                                       |
 |      table: lineitem_mor                                                     
                                       |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/paimon.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/paimon.md
index 00f36bacebe..133b85e46c1 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/paimon.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/datalake-analytics/paimon.md
@@ -25,25 +25,23 @@ under the License.
 -->
 
 
-# Paimon
-
-<version since="dev">
-</version>
 
 ## 使用须知
 
-1. 数据放在hdfs时,需要将 core-site.xml,hdfs-site.xml 和 hive-site.xml  放到 FE 和 BE 的 
conf 目录下。优先读取 conf 目录下的 hadoop 配置文件,再读取环境变量 `HADOOP_CONF_DIR` 的相关配置文件。
-2. 当前适配的paimon版本为0.6.0
+1. 数据放在 hdfs 时,需要将 core-site.xml,hdfs-site.xml 和 hive-site.xml  放到 FE 和 BE 的 
conf 目录下。优先读取 conf 目录下的 hadoop 配置文件,再读取环境变量 `HADOOP_CONF_DIR` 的相关配置文件。
+2. 当前适配的 paimon 版本为 0.6.0
 
 ## 创建 Catalog
 
-Paimon Catalog 当前支持两种类型的Metastore创建Catalog:
-* filesystem(默认),同时存储元数据和数据在filesystem。
-* hive metastore,它还将元数据存储在Hive metastore中。用户可以直接从Hive访问这些表。
+Paimon Catalog 当前支持两种类型的 Metastore 创建 Catalog:
+* filesystem(默认),同时存储元数据和数据在 filesystem。
+* hive metastore,它还将元数据存储在 Hive metastore 中。用户可以直接从 Hive 访问这些表。
 
-### 基于FileSystem创建Catalog
+### 基于 FileSystem 创建 Catalog
 
-> 2.0.1 及之前版本,请使用后面的 `基于Hive Metastore创建Catalog`。
+:::tips 提示
+2.0.1 及之前版本,请使用后面的 `基于Hive Metastore创建Catalog`。
+:::
 
 #### HDFS
 
@@ -122,7 +120,7 @@ CREATE CATALOG `paimon_oss` PROPERTIES (
 
 ```
 
-### 基于Hive Metastore创建Catalog
+### 基于 Hive Metastore 创建 Catalog
 
 ```sql
 CREATE CATALOG `paimon_hms` PROPERTIES (
@@ -172,8 +170,8 @@ CREATE CATALOG `paimon_kerberos` PROPERTIES (
 | DecimalType(precision, scale)         | Decimal(precision, scale) |          
 |
 | TimestampType,LocalZonedTimestampType | DateTime                  |          
 |
 | DateType                              | Date                      |          
 |
-| MapType                               | Map                       | 支持Map嵌套  
 |
-| ArrayType                             | Array                     | 
支持Array嵌套 |
+| MapType                               | Map                       | 支持 Map 
嵌套   |
+| ArrayType                             | Array                     | 支持 Array 
嵌套 |
 | VarBinaryType, BinaryType             | Binary                    |          
 |
 
 ## 常见问题
@@ -181,7 +179,7 @@ CREATE CATALOG `paimon_kerberos` PROPERTIES (
 1. Kerberos 问题
 
     - 确保 principal 和 keytab 配置正确。
-    - 需在 BE 节点启动定时任务(如 crontab),每隔一定时间(如 12小时),执行一次 `kinit -kt your_principal 
your_keytab` 命令。
+    - 需在 BE 节点启动定时任务(如 crontab),每隔一定时间(如 12 小时),执行一次 `kinit -kt your_principal 
your_keytab` 命令。
 
 2. Unknown type value: UNSUPPORTED
 
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/external-statistics.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/external-statistics.md
index e6d0ad95e00..610bf1a56b5 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/external-statistics.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/external-statistics.md
@@ -26,22 +26,22 @@ under the License.
 
 # 外表统计信息
 
-外表统计信息的收集方式和收集内容与内表基本一致,详细信息可以参考[统计信息](../query-acceleration/statistics.md)。
-2.0.3版本之后,Hive外表支持了自动和采样收集。
+外表统计信息的收集方式和收集内容与内表基本一致,详细信息可以参考[统计信息](../query/nereids/statistics)。
+2.0.3 版本之后,Hive 外表支持了自动和采样收集。
 
 # 注意事项
 
-1. 
目前(2.0.3)只有Hive外表支持自动和采样收集。HMS类型的Iceberg和Hudi外表,以及JDBC外表只支持手动全量收集。其他类型的外表暂不支持统计信息收集。
+1. 目前 (2.0.3) 只有 Hive 外表支持自动和采样收集。HMS 类型的 Iceberg 和 Hudi 外表,以及 JDBC 
外表只支持手动全量收集。其他类型的外表暂不支持统计信息收集。
 
-2. 外表默认关闭自动统计信息收集功能,需要在创建Catalog的时候添加属性来打开,或者通过设置Catalog属性来开启或关闭。
+2. 外表默认关闭自动统计信息收集功能,需要在创建 Catalog 的时候添加属性来打开,或者通过设置 Catalog 属性来开启或关闭。
 
-### 创建Catalog时打开自动收集的属性(默认是false):
+### 创建 Catalog 时打开自动收集的属性 (默认是 false):
 
 ```SQL
 'enable.auto.analyze' = 'true'
 ```
 
-### 通过修改Catalog属性控制是否开启自动收集:
+### 通过修改 Catalog 属性控制是否开启自动收集:
 
 ```sql
 ALTER CATALOG external_catalog SET PROPERTIES ('enable.auto.analyze'='true'); 
// 打开自动收集
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/lakehouse-overview.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/lakehouse-overview.md
index e70053b4e68..53ebb8ace2a 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/lakehouse-overview.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/lakehouse/lakehouse-overview.md
@@ -172,13 +172,13 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - External Catalog
 
-    可以通过 [CREATE 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS) 
命令查看已创建的 Catalog。
+    可以通过 [CREATE 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../sql-manual/sql-statements/Show-Statements/SHOW-CATALOGS) 命令查看已创建的 
Catalog。
 
 - 切换 Catalog
 
     用户登录 Doris 后,默认进入 Internal Catalog,因此默认的使用和之前版本并无差别,可以直接使用 `SHOW 
DATABASES`,`USE DB` 等命令查看和切换数据库。
 
-    用户可以通过 [SWITCH](../../sql-manual/sql-reference/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
+    用户可以通过 [SWITCH](../sql-manual/sql-statements/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
 
     ```Plain
     SWITCH internal;
@@ -189,7 +189,7 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - 删除 Catalog
 
-    可以通过 [DROP 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
+    可以通过 [DROP 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
 
 ### 连接示例
 
@@ -197,7 +197,7 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 这里我们通过连接一个 Hive 集群说明如何使用 Catalog 功能。
 
-更多关于 Hive 的说明,请参阅:[Hive Catalog](../lakehouse/datalake/hive)
+更多关于 Hive 的说明,请参阅:[Hive Catalog](../lakehouse/datalake-analytics/hive)
 
 **1. 创建 Catalog**
 
@@ -208,7 +208,7 @@ CREATE CATALOG hive PROPERTIES (
 );
 ```
 
-更多查看:[CREATE CATALOG 
语法帮助](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
+更多查看:[CREATE CATALOG 
语法帮助](../sql-manual/sql-statements/Data-Definition-Statements/Create/CREATE-CATALOG)
 
 **2. 查看 Catalog**
 
@@ -224,11 +224,11 @@ mysql> SHOW CATALOGS;
 
+-----------+-------------+----------+-----------+-------------------------+---------------------+------------------------+
 ```
 
-- [SHOW CATALOGS 
语法帮助](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS)
+- [SHOW CATALOGS 
语法帮助](../sql-manual/sql-statements/Show-Statements/SHOW-CATALOGS)
 
-- 可以通过 [SHOW CREATE 
CATALOG](../../sql-manual/sql-reference/Show-Statements/SHOW-CREATE-CATALOG) 
查看创建 Catalog 的语句。
+- 可以通过 [SHOW CREATE 
CATALOG](../sql-manual/sql-statements/Show-Statements/SHOW-CREATE-CATALOG) 查看创建 
Catalog 的语句。
 
-- 可以通过 [ALTER 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
+- 可以通过 [ALTER 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
 
 **4. 切换 Catalog**
 
@@ -251,7 +251,7 @@ mysql> SHOW DATABASES;
 +-----------+
 ```
 
-查看更多:[SWITCH 语法帮助](../../sql-manual/sql-reference/Utility-Statements/SWITCH)
+查看更多:[SWITCH 语法帮助](../sql-manual/sql-statements/Utility-Statements/SWITCH)
 
 **5. 使用 Catalog**
 
@@ -387,7 +387,7 @@ select k1, k4 from table;           // Query OK.
 
 使用 Doris 对 External Catalog 中库表进行访问时,默认情况下,依赖 Doris 自身的权限访问管理功能。
 
-Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../../admin-manual/privilege-ldap/user-privilege) 文档。
+Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../admin-manual/privilege-ldap/user-privilege) 文档。
 
 用户也可以通过 `access_controller.class` 属性指定自定义的鉴权类。如通过指定:
 
@@ -395,7 +395,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 "access_controller.class" = 
"org.apache.doris.catalog.authorizer.ranger.hive.RangerHiveAccessControllerFactory"
 ```
 
-则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../../lakehouse/datalake/hive)
+则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../lakehouse/datalake-analytics/hive)
 
 ### 指定需要同步的数据库
 
@@ -419,7 +419,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 
 #### 手动刷新
 
-用户需要通过 [REFRESH](../../sql-manual/sql-reference/Utility-Statements/REFRESH) 
命令手动刷新元数据。
+用户需要通过 [REFRESH](../sql-manual/sql-statements/Utility-Statements/REFRESH) 
命令手动刷新元数据。
 
 #### 定时刷新
 
@@ -442,4 +442,4 @@ CREATE CATALOG es PROPERTIES (
 
 #### 自动刷新
 
-自动刷新目前仅支持 [Hive Catalog](../lakehouse/datalake/hive)。
\ No newline at end of file
+自动刷新目前仅支持 [Hive Catalog](../lakehouse/datalake-analytics/hive)。
\ No newline at end of file
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/lakehouse/lakehouse-overview.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/lakehouse/lakehouse-overview.md
index 737411a9331..f6452ef8563 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/lakehouse/lakehouse-overview.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/lakehouse/lakehouse-overview.md
@@ -172,13 +172,13 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - External Catalog
 
-    可以通过 [CREATE 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS) 
命令查看已创建的 Catalog。
+    可以通过 [CREATE 
CATALOG](../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS) 命令查看已创建的 
Catalog。
 
 - 切换 Catalog
 
     用户登录 Doris 后,默认进入 Internal Catalog,因此默认的使用和之前版本并无差别,可以直接使用 `SHOW 
DATABASES`,`USE DB` 等命令查看和切换数据库。
 
-    用户可以通过 [SWITCH](../../sql-manual/sql-reference/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
+    用户可以通过 [SWITCH](../sql-manual/sql-reference/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
 
     ```Plain
     SWITCH internal;
@@ -189,7 +189,7 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - 删除 Catalog
 
-    可以通过 [DROP 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
+    可以通过 [DROP 
CATALOG](../sql-manual/sql-reference/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
 
 ### 连接示例
 
@@ -208,7 +208,7 @@ CREATE CATALOG hive PROPERTIES (
 );
 ```
 
-更多查看:[CREATE CATALOG 
语法帮助](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
+更多查看:[CREATE CATALOG 
语法帮助](../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
 
 **2. 查看 Catalog**
 
@@ -224,11 +224,11 @@ mysql> SHOW CATALOGS;
 
+-----------+-------------+----------+-----------+-------------------------+---------------------+------------------------+
 ```
 
-- [SHOW CATALOGS 
语法帮助](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS)
+- [SHOW CATALOGS 
语法帮助](../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS)
 
-- 可以通过 [SHOW CREATE 
CATALOG](../../sql-manual/sql-reference/Show-Statements/SHOW-CREATE-CATALOG) 
查看创建 Catalog 的语句。
+- 可以通过 [SHOW CREATE 
CATALOG](../sql-manual/sql-reference/Show-Statements/SHOW-CREATE-CATALOG) 查看创建 
Catalog 的语句。
 
-- 可以通过 [ALTER 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
+- 可以通过 [ALTER 
CATALOG](../sql-manual/sql-reference/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
 
 **4. 切换 Catalog**
 
@@ -251,7 +251,7 @@ mysql> SHOW DATABASES;
 +-----------+
 ```
 
-查看更多:[SWITCH 语法帮助](../../sql-manual/sql-reference/Utility-Statements/SWITCH)
+查看更多:[SWITCH 语法帮助](../sql-manual/sql-reference/Utility-Statements/SWITCH)
 
 **5. 使用 Catalog**
 
@@ -387,7 +387,7 @@ select k1, k4 from table;           // Query OK.
 
 使用 Doris 对 External Catalog 中库表进行访问时,默认情况下,依赖 Doris 自身的权限访问管理功能。
 
-Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../../admin-manual/privilege-ldap/user-privilege) 文档。
+Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../admin-manual/privilege-ldap/user-privilege) 文档。
 
 用户也可以通过 `access_controller.class` 属性指定自定义的鉴权类。如通过指定:
 
@@ -395,7 +395,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 "access_controller.class" = 
"org.apache.doris.catalog.authorizer.RangerHiveAccessControllerFactory"
 ```
 
-则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../../lakehouse/datalake/hive)
+则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../lakehouse/datalake/hive)
 
 ### 指定需要同步的数据库
 
@@ -419,7 +419,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 
 #### 手动刷新
 
-用户需要通过 [REFRESH](../../sql-manual/sql-reference/Utility-Statements/REFRESH) 
命令手动刷新元数据。
+用户需要通过 [REFRESH](../sql-manual/sql-reference/Utility-Statements/REFRESH) 
命令手动刷新元数据。
 
 #### 定时刷新
 
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/database/max-compute.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/database/max-compute.md
index 9ba66a2e9e7..275d843bf7b 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/database/max-compute.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/database/max-compute.md
@@ -27,13 +27,13 @@ under the License.
 
 # 阿里云 MaxCompute
 
-MaxCompute是阿里云上的企业级SaaS(Software as a Service)模式云数据仓库。
+MaxCompute 是阿里云上的企业级 SaaS(Software as a Service)模式云数据仓库。
 
 > [什么是 
 > MaxCompute](https://help.aliyun.com/zh/maxcompute/product-overview/what-is-maxcompute?spm=a2c4g.11174283.0.i1)
 
 ## 使用须知
-1. Max Compute Catalog基于[Max Compute Tunnel 
SDK](https://help.aliyun.com/zh/maxcompute/user-guide/overview-28?spm=a2c4g.11186623.0.0.376d66c2FNv6aS)开发。查询性能有一定限制。
-2. 在一次查询中,每个Scan都会创建Max Compute的DownloadSession对象,并行访问Max 
Compute时性能会下降,建议使用Max Compute Catalog时,尽量减少查询的分区数量和数据大小。
+1. Max Compute Catalog 基于[Max Compute Tunnel 
SDK](https://help.aliyun.com/zh/maxcompute/user-guide/overview-28?spm=a2c4g.11186623.0.0.376d66c2FNv6aS)开发。查询性能有一定限制。
+2. 在一次查询中,每个 Scan 都会创建 Max Compute 的 DownloadSession 对象,并行访问 Max Compute 
时性能会下降,建议使用 Max Compute Catalog 时,尽量减少查询的分区数量和数据大小。
 
 ## 连接 Max Compute
 
@@ -47,31 +47,31 @@ CREATE CATALOG mc PROPERTIES (
 );
 ```
 
-* 
`mc.region`:MaxCompute开通的地域。可以从Endpoint中找到对应的Region,参阅[Endpoints](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0)。
-* 
`mc.default.project`:MaxCompute项目。可以在[MaxCompute项目列表](https://maxcompute.console.aliyun.com/cn-beijing/project-list)中创建和管理。
+* `mc.region`:MaxCompute 开通的地域。可以从 Endpoint 中找到对应的 
Region,参阅[Endpoints](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0)。
+* `mc.default.project`:MaxCompute 项目。可以在[MaxCompute 
项目列表](https://maxcompute.console.aliyun.com/cn-beijing/project-list)中创建和管理。
 * `mc.access_key`:AccessKey。可以在 
[阿里云控制台](https://ram.console.aliyun.com/manage/ak) 中创建和管理。
 * `mc.secret_key`:SecretKey。可以在 
[阿里云控制台](https://ram.console.aliyun.com/manage/ak) 中创建和管理。
 * `mc.public_access`: 当配置了`"mc.public_access"="true"`,可以开启公网访问,建议测试时使用。
 
 ## 限额
 
-连接MaxCompute时,按量付费的Quota查询并发和使用量有限,如需增加资源,请参照MaxCompute文档。参见[配额管理](https://help.aliyun.com/zh/maxcompute/user-guide/manage-quotas-in-the-new-maxcompute-console).
+连接 MaxCompute 时,按量付费的 Quota 查询并发和使用量有限,如需增加资源,请参照 MaxCompute 
文档。参见[配额管理](https://help.aliyun.com/zh/maxcompute/user-guide/manage-quotas-in-the-new-maxcompute-console).
 
 ## 列类型映射
 
-和 Hive Catalog 一致,可参阅 [Hive Catalog](./hive.md) 中 **列类型映射** 一节。
+和 Hive Catalog 一致,可参阅 [Hive Catalog](../datalake-analytics/hive) 中 **列类型映射** 
一节。
 
 ## 自定义服务地址
 
-默认情况下,Max Compute Catalog根据region去默认生成公网的endpoint。
+默认情况下,Max Compute Catalog 根据 region 去默认生成公网的 endpoint。
 
-除了默认的endpoint地址外,Max Compute Catalog也支持在属性中自定义服务地址。
+除了默认的 endpoint 地址外,Max Compute Catalog 也支持在属性中自定义服务地址。
 
 使用以下两个属性:
 * `mc.odps_endpoint`:Max Compute Endpoint。
-* `mc.tunnel_endpoint`: Tunnel Endpoint,Max Compute Catalog使用Tunnel SDK获取数据。
+* `mc.tunnel_endpoint`: Tunnel Endpoint,Max Compute Catalog 使用 Tunnel SDK 获取数据。
 
-Max Compute Endpoint和Tunnel 
Endpoint的配置请参见[各地域及不同网络连接方式下的Endpoint](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints)
+Max Compute Endpoint 和 Tunnel Endpoint 的配置请参见[各地域及不同网络连接方式下的 
Endpoint](https://help.aliyun.com/zh/maxcompute/user-guide/endpoints)
 
 示例:
 
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hive.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hive.md
index 7e929d73870..8082bf53746 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hive.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hive.md
@@ -95,7 +95,7 @@ ViewFS 工作原理和参数配置可以参考 hadoop 相关文档,比如 http
 
 ### Hive On JuiceFS
 
-数据存储在JuiceFS,示例如下:
+数据存储在 JuiceFS,示例如下:
 
 (需要把 `juicefs-hadoop-x.x.x.jar` 放在 `fe/lib/` 和 `apache_hdfs_broker/lib/` 下)
 
@@ -126,9 +126,9 @@ CREATE CATALOG hive PROPERTIES (
 
 可选属性:
 
-* s3.connection.maximum: s3最大连接数,默认50
-* s3.connection.request.timeout:s3请求超时时间,默认3000ms
-* s3.connection.timeout: s3连接超时时间,默认1000ms
+* s3.connection.maximum:s3 最大连接数,默认 50
+* s3.connection.request.timeout:s3 请求超时时间,默认 3000ms
+* s3.connection.timeout:s3 连接超时时间,默认 1000ms
 
 ### Hive On OSS
 
@@ -168,7 +168,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ### Hive With Glue
 
-> 连接Glue时,如果是在非EC2环境,需要将EC2环境里的 `~/.aws` 目录拷贝到当前环境里。也可以下载[AWS 
Cli](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html)工具进行配置,这种方式也会在当前用户目录下创建`.aws`目录。
+> 连接 Glue 时,如果是在非 EC2 环境,需要将 EC2 环境里的 `~/.aws` 目录拷贝到当前环境里。也可以下载[AWS 
Cli](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html)工具进行配置,这种方式也会在当前用户目录下创建`.aws`目录。
 
 ```sql
 CREATE CATALOG hive PROPERTIES (
@@ -191,7 +191,7 @@ CREATE CATALOG hive PROPERTIES (
 
 以上缓存信息不会持久化到 Doris 中,所以在 Doris 的 FE 节点重启、切主等操作,都可能导致缓存失效。缓存失效后,Doris 会直接访问 
Hive MetaStore 获取信息,并重新填充缓存。
 
-元数据缓可以根据用户的需要,进行自动、手动,或配置 TTL(Time-to-Live) 的方式进行更新。
+元数据缓可以根据用户的需要,进行自动、手动,或配置 TTL(Time-to-Live)的方式进行更新。
 
 ### 默认行为和 TTL
 
@@ -217,7 +217,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ### 手动刷新
 
-用户需要通过 [REFRESH](../../sql-manual/sql-reference/Utility-Statements/REFRESH.md) 
命令手动刷新元数据。
+用户需要通过 
[REFRESH](../../sql-manual/sql-statements/Utility-Statements/REFRESH.md) 
命令手动刷新元数据。
 
 1. REFRESH CATALOG:刷新指定 Catalog。
 
@@ -269,13 +269,13 @@ CREATE CATALOG hive PROPERTIES (
 
 ### 自动刷新
 
-自动刷新目前仅支持 Hive Metastore 元数据服务。通过让 FE 节点定时读取 HMS 的 notification event 来感知 Hive 
表元数据的变更情况,目前支持处理如下event:
+自动刷新目前仅支持 Hive Metastore 元数据服务。通过让 FE 节点定时读取 HMS 的 notification event 来感知 Hive 
表元数据的变更情况,目前支持处理如下 event:
 
 |事件 | 事件行为和对应的动作 |
 |---|---|
 | CREATE DATABASE | 在对应数据目录下创建数据库。 |
 | DROP DATABASE | 在对应数据目录下删除数据库。 |
-| ALTER DATABASE  | 
此事件的影响主要有更改数据库的属性信息,注释及默认存储位置等,这些改变不影响doris对外部数据目录的查询操作,因此目前会忽略此event。 |
+| ALTER DATABASE  | 此事件的影响主要有更改数据库的属性信息,注释及默认存储位置等,这些改变不影响 doris 
对外部数据目录的查询操作,因此目前会忽略此 event。 |
 | CREATE TABLE | 在对应数据库下创建表。 |
 | DROP TABLE  | 在对应数据库下删除表,并失效表的缓存。 |
 | ALTER TABLE | 如果是重命名,先删除旧名字的表,再用新名字创建表,否则失效该表的缓存。 |
@@ -283,17 +283,17 @@ CREATE CATALOG hive PROPERTIES (
 | DROP PARTITION | 在对应表缓存的分区列表里删除分区,并失效该分区的缓存。 |
 | ALTER PARTITION | 如果是重命名,先删除旧名字的分区,再用新名字创建分区,否则失效该分区的缓存。 |
 
-> 当导入数据导致文件变更,分区表会走ALTER PARTITION event逻辑,不分区表会走ALTER TABLE event逻辑。
+> 当导入数据导致文件变更,分区表会走 ALTER PARTITION event 逻辑,不分区表会走 ALTER TABLE event 逻辑。
 > 
-> 如果绕过HMS直接操作文件系统的话,HMS不会生成对应事件,doris因此也无法感知
+> 如果绕过 HMS 直接操作文件系统的话,HMS 不会生成对应事件,doris 因此也无法感知
 
 该特性在 fe.conf 中有如下参数:
 
-1. `enable_hms_events_incremental_sync`: 是否开启元数据自动增量同步功能,默认关闭。
+1. `enable_hms_events_incremental_sync`: 是否开启元数据自动增量同步功能,默认关闭。
 2. `hms_events_polling_interval_ms`: 读取 event 的间隔时间,默认值为 10000,单位:毫秒。
 3. `hms_events_batch_size_per_rpc`: 每次读取 event 的最大数量,默认值为 500。
 
-如果想使用该特性(华为MRS除外),需要更改HMS的 hive-site.xml 并重启HMS和HiveServer2:
+如果想使用该特性 (华为 MRS 除外),需要更改 HMS 的 hive-site.xml 并重启 HMS 和 HiveServer2:
 
 ```
 <property>
@@ -311,7 +311,7 @@ CREATE CATALOG hive PROPERTIES (
 
 ```
 
-华为的MRS需要更改hivemetastore-site.xml 并重启HMS和HiveServer2:
+华为的 MRS 需要更改 hivemetastore-site.xml 并重启 HMS 和 HiveServer2:
 
 ```
 <property>
@@ -381,7 +381,7 @@ Doris 基于 Iceberg `FileIO` 接口实现了 Broker 查询 HMS Catalog 
Iceberg
 
 ## 集成 Apache Ranger
 
-Apache Ranger是一个用来在Hadoop平台上进行监控,启用服务,以及全方位数据安全访问管理的安全框架。
+Apache Ranger 是一个用来在 Hadoop 平台上进行监控,启用服务,以及全方位数据安全访问管理的安全框架。
 
 Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权。
 
@@ -400,15 +400,15 @@ Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权
        "access_controller.class" = 
"org.apache.doris.catalog.authorizer.ranger.hive.RangerHiveAccessControllerFactory",
        ```
 
-       >注意:
+       >注意:
        >
        > `access_controller.properties.ranger.service.name` 指的是 service 的类型,例如 
`hive`,`hdfs` 等。并不是配置文件中 `ranger.plugin.hive.service.name` 的值。
 
 2. 配置所有 FE 环境:
 
-    1. 将 HMS conf 
目录下的配置文件ranger-hive-audit.xml,ranger-hive-security.xml,ranger-policymgr-ssl.xml复制到
 FE 的 conf 目录下。
+    1. 将 HMS conf 目录下的配置文件 
ranger-hive-audit.xml,ranger-hive-security.xml,ranger-policymgr-ssl.xml 复制到 FE 
的 conf 目录下。
 
-    2. 修改 ranger-hive-security.xml 的属性,参考配置如下:
+    2. 修改 ranger-hive-security.xml 的属性,参考配置如下:
 
         ```sql
         <?xml version="1.0" encoding="UTF-8"?>
@@ -469,15 +469,15 @@ Doris 支持为指定的 External Hive Catalog 使用 Apache Ranger 进行鉴权
 
 ### 最佳实践
 
-1. 在ranger端创建用户user1并授权db1.table1.col1的查询权限
+1. 在 ranger 端创建用户 user1 并授权 db1.table1.col1 的查询权限
 
-2. 在ranger端创建角色role1并授权db1.table1.col2的查询权限
+2. 在 ranger 端创建角色 role1 并授权 db1.table1.col2 的查询权限
 
-3. 在doris创建同名用户user1,user1将直接拥有db1.table1.col1的查询权限
+3. 在 doris 创建同名用户 user1,user1 将直接拥有 db1.table1.col1 的查询权限
 
-4. 在doris创建同名角色role1,并将role1分配给user1,user1将同时拥有db1.table1.col1和col2的查询权限
+4. 在 doris 创建同名角色 role1,并将 role1 分配给 user1,user1 将同时拥有 db1.table1.col1 和 col2 
的查询权限
 
-5. Admin 和 Root 用户的权限不受Apache Ranger 的权限控制
+5. Admin 和 Root 用户的权限不受 Apache Ranger 的权限控制
 
 ## 连接 Kerberos 认证的 Hive 集群
 
@@ -549,13 +549,13 @@ CREATE CATALOG hive_krb_ha PROPERTIES (
 
 ### 问题排查
 
-如遇 Kerberos 认证问题,在设置了 JVM 参数 `-Dsun.security.krb5.debug=true` 后,会在 `fe.out` 或 
`be.out` 中打印 Kerberos 认证相关信息。可以参考 [FAQ](../faq.md) 中的相关错误进行排查。
+如遇 Kerberos 认证问题,在设置了 JVM 参数 `-Dsun.security.krb5.debug=true` 后,会在 `fe.out` 或 
`be.out` 中打印 Kerberos 认证相关信息。可以参考 [FAQ](../../faq/lakehouse-faq) 中的相关错误进行排查。
 
 ## Hive Transactional 表
 Hive transactional 表是 Hive 中支持 ACID 
语义的表。详情可见:https://cwiki.apache.org/confluence/display/Hive/Hive+Transactions
 
 ### Hive Transactional 表支持情况:
-|表类型|在 Hive 中支持的操作|Hive 表属性|支持的Hive 版本|
+|表类型 | 在 Hive 中支持的操作|Hive 表属性 | 支持的 Hive 版本|
 |---|---|---|---|
 |Full-ACID Transactional Table |支持 Insert, Update, Delete 
操作|'transactional'='true', 'transactional_properties'='insert_only'|3.x,2.x,其中 
2.x 需要在 Hive 中执行完 major compaction 才可以加载|
 |Insert-Only Transactional Table|只支持 Insert 操作|'transactional'='true'|3.x,2.x|
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hudi.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hudi.md
index b7f2776e38d..a799c642e79 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hudi.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/hudi.md
@@ -36,7 +36,7 @@ under the License.
 | Copy On Write  | Snapshot Query, Time Travel, Icremental Read |
 | Merge On Read  | Snapshot Queries, Read Optimized Queries, Time Travel, 
Icremental Read |
 
-2. 目前支持 Hive Metastore 和兼容 Hive Metastore 类型(例如[AWS Glue](./hive.md)/[Alibaba 
DLF](./dlf.md))的 Catalog。
+2. 目前支持 Hive Metastore 和兼容 Hive Metastore 类型 (例如[AWS Glue](./hive.md)/[Alibaba 
DLF](./dlf.md)) 的 Catalog。
 
 ## 创建 Catalog
 
@@ -57,9 +57,9 @@ CREATE CATALOG hudi PROPERTIES (
 
 可选配置参数:
 
-|参数名|说明|默认值|
+|参数名 | 说明 | 默认值|
 |---|---|---|
-|use_hive_sync_partition|使用hms已同步的分区数据|false|
+|use_hive_sync_partition|使用 hms 已同步的分区数据|false|
 
 ## 列类型映射
 
@@ -71,7 +71,7 @@ Spark 在创建 hudi mor 表的时候,会创建 `_ro` 后缀的 read optimize
 
 ## 查询优化
 
-Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java SDK(通过JNI调用hudi-bundle) 
读取 MOR 表的数据文件。在 upsert 场景下,MOR 依然会有数据文件没有被更新,这部分文件可以通过 parquet native 
reader读取,用户可以通过 [explain](../../advanced/best-practice/query-analysis.md) 命令查看 
hudi scan 的执行计划,`hudiNativeReadSplits` 表示有多少 split 文件通过 parquet native reader 
读取。
+Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java SDK(通过 JNI 调用 
hudi-bundle) 读取 MOR 表的数据文件。在 upsert 场景下,MOR 依然会有数据文件没有被更新,这部分文件可以通过 parquet 
native reader 读取,用户可以通过 [explain](../../query/query-analysis/query-analysis) 
命令查看 hudi scan 的执行计划,`hudiNativeReadSplits` 表示有多少 split 文件通过 parquet native 
reader 读取。
 ```
 |0:VHUDI_SCAN_NODE                                                             
|
 |      table: minbatch_mor_rt                                                  
|
@@ -81,7 +81,7 @@ Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java S
 |      numNodes=6                                                              
|
 |      hudiNativeReadSplits=717/810                                            
|
 ```
-用户可以通过 [profile](../../admin-manual/http-actions/fe/profile-action.md) 查看 Java 
SDK 的性能,例如:
+用户可以通过 [profile](../../admin-manual/fe/profile-action) 查看 Java SDK 的性能,例如:
 ```
 -  HudiJniScanner:  0ns
   -  FillBlockTime:  31.29ms
@@ -98,7 +98,7 @@ Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java S
 
 每一次对 Hudi 表的写操作都会产生一个新的快照,Time Travel 支持读取 Hudi 表指定的 
Snapshot。默认情况下,查询请求只会读取最新版本的快照。
 
-可以使用 `FOR TIME AS OF` 
语句,根据快照的时间([时间格式](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#timetravel)和Hudi官网保持一致)读取历史版本的数据。示例如下:
+可以使用 `FOR TIME AS OF` 语句,根据快照的时间 
([时间格式](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#timetravel)和 
Hudi 官网保持一致) 读取历史版本的数据。示例如下:
 ```
 SELECT * FROM hudi_tbl FOR TIME AS OF "2022-10-07 17:20:37";
 SELECT * FROM hudi_tbl FOR TIME AS OF "20221007172037";
@@ -113,9 +113,9 @@ Doris 提供了 `@incr` 语法支持 Incremental Read:
 ```
 SELECT * from hudi_table@incr('beginTime'='xxx', ['endTime'='xxx'], 
['hoodie.read.timeline.holes.resolution.policy'='FAIL'], ...);
 ```
-`beginTime` 是必须的,时间格式和 hudi 官网 
[hudi_table_changes](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#incremental-query)
 保持一致,支持 "earliest"。`endTime` 选填,默认最新commitTime。兼容 [Spark Read 
Options](https://hudi.apache.org/docs/0.14.0/configurations#Read-Options)。
+`beginTime` 是必须的,时间格式和 hudi 官网 
[hudi_table_changes](https://hudi.apache.org/docs/0.14.0/quick-start-guide/#incremental-query)
 保持一致,支持 "earliest"。`endTime` 选填,默认最新 commitTime。兼容 [Spark Read 
Options](https://hudi.apache.org/docs/0.14.0/configurations#Read-Options)。
 
-支持 Incremental Read 
需要开启[新优化器](../../query-acceleration/nereids.md),新优化器默认打开。通过 `desc` 查看执行计划,可以发现 
Doris 将 `@incr` 转化为 `predicates` 下推给 `VHUDI_SCAN_NODE`:
+支持 Incremental Read 需要开启[新优化器](../../query/nereids/nereids),新优化器默认打开。通过 `desc` 
查看执行计划,可以发现 Doris 将 `@incr` 转化为 `predicates` 下推给 `VHUDI_SCAN_NODE`:
 ```
 |   0:VHUDI_SCAN_NODE(113)                                                     
                                       |
 |      table: lineitem_mor                                                     
                                       |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/paimon.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/paimon.md
index 00f36bacebe..58615fd6926 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/paimon.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/datalake-analytics/paimon.md
@@ -25,25 +25,22 @@ under the License.
 -->
 
 
-# Paimon
-
-<version since="dev">
-</version>
-
 ## 使用须知
 
-1. 数据放在hdfs时,需要将 core-site.xml,hdfs-site.xml 和 hive-site.xml  放到 FE 和 BE 的 
conf 目录下。优先读取 conf 目录下的 hadoop 配置文件,再读取环境变量 `HADOOP_CONF_DIR` 的相关配置文件。
-2. 当前适配的paimon版本为0.6.0
+1. 数据放在 hdfs 时,需要将 core-site.xml,hdfs-site.xml 和 hive-site.xml  放到 FE 和 BE 的 
conf 目录下。优先读取 conf 目录下的 hadoop 配置文件,再读取环境变量 `HADOOP_CONF_DIR` 的相关配置文件。
+2. 当前适配的 paimon 版本为 0.6.0
 
 ## 创建 Catalog
 
-Paimon Catalog 当前支持两种类型的Metastore创建Catalog:
-* filesystem(默认),同时存储元数据和数据在filesystem。
-* hive metastore,它还将元数据存储在Hive metastore中。用户可以直接从Hive访问这些表。
+Paimon Catalog 当前支持两种类型的 Metastore 创建 Catalog:
+* filesystem(默认),同时存储元数据和数据在 filesystem。
+* hive metastore,它还将元数据存储在 Hive metastore 中。用户可以直接从 Hive 访问这些表。
 
-### 基于FileSystem创建Catalog
+### 基于 FileSystem 创建 Catalog
 
-> 2.0.1 及之前版本,请使用后面的 `基于Hive Metastore创建Catalog`。
+:::tips 提示
+2.0.1 及之前版本,请使用后面的 `基于Hive Metastore创建Catalog`。
+:::
 
 #### HDFS
 
@@ -122,7 +119,7 @@ CREATE CATALOG `paimon_oss` PROPERTIES (
 
 ```
 
-### 基于Hive Metastore创建Catalog
+### 基于 Hive Metastore 创建 Catalog
 
 ```sql
 CREATE CATALOG `paimon_hms` PROPERTIES (
@@ -172,8 +169,8 @@ CREATE CATALOG `paimon_kerberos` PROPERTIES (
 | DecimalType(precision, scale)         | Decimal(precision, scale) |          
 |
 | TimestampType,LocalZonedTimestampType | DateTime                  |          
 |
 | DateType                              | Date                      |          
 |
-| MapType                               | Map                       | 支持Map嵌套  
 |
-| ArrayType                             | Array                     | 
支持Array嵌套 |
+| MapType                               | Map                       | 支持 Map 
嵌套   |
+| ArrayType                             | Array                     | 支持 Array 
嵌套 |
 | VarBinaryType, BinaryType             | Binary                    |          
 |
 
 ## 常见问题
@@ -181,7 +178,7 @@ CREATE CATALOG `paimon_kerberos` PROPERTIES (
 1. Kerberos 问题
 
     - 确保 principal 和 keytab 配置正确。
-    - 需在 BE 节点启动定时任务(如 crontab),每隔一定时间(如 12小时),执行一次 `kinit -kt your_principal 
your_keytab` 命令。
+    - 需在 BE 节点启动定时任务(如 crontab),每隔一定时间(如 12 小时),执行一次 `kinit -kt your_principal 
your_keytab` 命令。
 
 2. Unknown type value: UNSUPPORTED
 
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/external-statistics.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/external-statistics.md
index e6d0ad95e00..610bf1a56b5 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/external-statistics.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/external-statistics.md
@@ -26,22 +26,22 @@ under the License.
 
 # 外表统计信息
 
-外表统计信息的收集方式和收集内容与内表基本一致,详细信息可以参考[统计信息](../query-acceleration/statistics.md)。
-2.0.3版本之后,Hive外表支持了自动和采样收集。
+外表统计信息的收集方式和收集内容与内表基本一致,详细信息可以参考[统计信息](../query/nereids/statistics)。
+2.0.3 版本之后,Hive 外表支持了自动和采样收集。
 
 # 注意事项
 
-1. 
目前(2.0.3)只有Hive外表支持自动和采样收集。HMS类型的Iceberg和Hudi外表,以及JDBC外表只支持手动全量收集。其他类型的外表暂不支持统计信息收集。
+1. 目前 (2.0.3) 只有 Hive 外表支持自动和采样收集。HMS 类型的 Iceberg 和 Hudi 外表,以及 JDBC 
外表只支持手动全量收集。其他类型的外表暂不支持统计信息收集。
 
-2. 外表默认关闭自动统计信息收集功能,需要在创建Catalog的时候添加属性来打开,或者通过设置Catalog属性来开启或关闭。
+2. 外表默认关闭自动统计信息收集功能,需要在创建 Catalog 的时候添加属性来打开,或者通过设置 Catalog 属性来开启或关闭。
 
-### 创建Catalog时打开自动收集的属性(默认是false):
+### 创建 Catalog 时打开自动收集的属性 (默认是 false):
 
 ```SQL
 'enable.auto.analyze' = 'true'
 ```
 
-### 通过修改Catalog属性控制是否开启自动收集:
+### 通过修改 Catalog 属性控制是否开启自动收集:
 
 ```sql
 ALTER CATALOG external_catalog SET PROPERTIES ('enable.auto.analyze'='true'); 
// 打开自动收集
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/lakehouse-overview.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/lakehouse-overview.md
index e70053b4e68..514f07e5c71 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/lakehouse-overview.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/lakehouse/lakehouse-overview.md
@@ -172,13 +172,13 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - External Catalog
 
-    可以通过 [CREATE 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS) 
命令查看已创建的 Catalog。
+    可以通过 [CREATE 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Create/CREATE-CATALOG)
 命令创建一个 External Catalog。创建后,可以通过 [SHOW 
CATALOGS](../sql-manual/sql-statements/Show-Statements/SHOW-CATALOGS) 命令查看已创建的 
Catalog。
 
 - 切换 Catalog
 
     用户登录 Doris 后,默认进入 Internal Catalog,因此默认的使用和之前版本并无差别,可以直接使用 `SHOW 
DATABASES`,`USE DB` 等命令查看和切换数据库。
 
-    用户可以通过 [SWITCH](../../sql-manual/sql-reference/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
+    用户可以通过 [SWITCH](../sql-manual/sql-statements/Utility-Statements/SWITCH) 
命令切换 Catalog。如:
 
     ```Plain
     SWITCH internal;
@@ -189,7 +189,7 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 - 删除 Catalog
 
-    可以通过 [DROP 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
+    可以通过 [DROP 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Drop/DROP-CATALOG)
 命令删除一个 External Catalog,Internal Catalog 无法删除。该操作仅会删除 Doris 中该 Catalog 
的映射信息,并不会修改或变更任何外部数据目录的内容。
 
 ### 连接示例
 
@@ -197,7 +197,7 @@ Doris 通过收集统计信息有助于优化器了解数据分布特性,在
 
 这里我们通过连接一个 Hive 集群说明如何使用 Catalog 功能。
 
-更多关于 Hive 的说明,请参阅:[Hive Catalog](../lakehouse/datalake/hive)
+更多关于 Hive 的说明,请参阅:[Hive Catalog](../lakehouse/datalake-analytics/hive)
 
 **1. 创建 Catalog**
 
@@ -208,7 +208,7 @@ CREATE CATALOG hive PROPERTIES (
 );
 ```
 
-更多查看:[CREATE CATALOG 
语法帮助](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-CATALOG)
+更多查看:[CREATE CATALOG 
语法帮助](../sql-manual/sql-statements/Data-Definition-Statements/Create/CREATE-CATALOG)
 
 **2. 查看 Catalog**
 
@@ -224,11 +224,11 @@ mysql> SHOW CATALOGS;
 
+-----------+-------------+----------+-----------+-------------------------+---------------------+------------------------+
 ```
 
-- [SHOW CATALOGS 
语法帮助](../../sql-manual/sql-reference/Show-Statements/SHOW-CATALOGS)
+- [SHOW CATALOGS 
语法帮助](../sql-manual/sql-statements/Show-Statements/SHOW-CATALOGS)
 
-- 可以通过 [SHOW CREATE 
CATALOG](../../sql-manual/sql-reference/Show-Statements/SHOW-CREATE-CATALOG) 
查看创建 Catalog 的语句。
+- 可以通过 [SHOW CREATE 
CATALOG](../sql-manual/sql-statements/Show-Statements/SHOW-CREATE-CATALOG) 查看创建 
Catalog 的语句。
 
-- 可以通过 [ALTER 
CATALOG](../../sql-manual/sql-reference/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
+- 可以通过 [ALTER 
CATALOG](../sql-manual/sql-statements/Data-Definition-Statements/Alter/ALTER-CATALOG)
 修改 Catalog 的属性。
 
 **4. 切换 Catalog**
 
@@ -251,7 +251,7 @@ mysql> SHOW DATABASES;
 +-----------+
 ```
 
-查看更多:[SWITCH 语法帮助](../../sql-manual/sql-reference/Utility-Statements/SWITCH)
+查看更多:[SWITCH 语法帮助](../sql-manual/sql-statements/Utility-Statements/SWITCH)
 
 **5. 使用 Catalog**
 
@@ -387,7 +387,7 @@ select k1, k4 from table;           // Query OK.
 
 使用 Doris 对 External Catalog 中库表进行访问时,默认情况下,依赖 Doris 自身的权限访问管理功能。
 
-Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../../admin-manual/privilege-ldap/user-privilege) 文档。
+Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参阅 
[权限管理](../admin-manual/privilege-ldap/user-privilege) 文档。
 
 用户也可以通过 `access_controller.class` 属性指定自定义的鉴权类。如通过指定:
 
@@ -395,7 +395,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 "access_controller.class" = 
"org.apache.doris.catalog.authorizer.ranger.hive.RangerHiveAccessControllerFactory"
 ```
 
-则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../../lakehouse/datalake/hive)
+则可以使用 Apache Range 对 Hive Catalog 进行鉴权管理。详细信息请参阅:[Hive 
Catalog](../lakehouse/datalake-analytics/hive)
 
 ### 指定需要同步的数据库
 
@@ -408,7 +408,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 :::tip
 - 当 `include_database_list` 和 `exclude_database_list` 有重合的 database 
配置时,`exclude_database_list`会优先生效。
 
-- 连接 JDBC 时,上述 2 个配置需要和配置 `only_specified_database` 搭配使用,详见 
[JDBC](../lakehouse/database/jdbc)
+- 连接 JDBC 时,上述 2 个配置需要和配置 `only_specified_database` 搭配使用,详见 
[JDBC](../lakehouse/database/jdbc.md)
 :::
 
 ### 元数据更新
@@ -419,7 +419,7 @@ Doris 的权限管理功能提供了对 Catalog 层级的扩展,具体可参
 
 #### 手动刷新
 
-用户需要通过 [REFRESH](../../sql-manual/sql-reference/Utility-Statements/REFRESH) 
命令手动刷新元数据。
+用户需要通过 [REFRESH](../sql-manual/sql-statements/Utility-Statements/REFRESH) 
命令手动刷新元数据。
 
 #### 定时刷新
 
@@ -442,4 +442,4 @@ CREATE CATALOG es PROPERTIES (
 
 #### 自动刷新
 
-自动刷新目前仅支持 [Hive Catalog](../lakehouse/datalake/hive)。
\ No newline at end of file
+自动刷新目前仅支持 [Hive Catalog](../lakehouse/datalake-analytics/hive)。
\ No newline at end of file


---------------------------------------------------------------------
To unsubscribe, e-mail: commits-unsubscr...@doris.apache.org
For additional commands, e-mail: commits-h...@doris.apache.org

Reply via email to