KassieZ commented on code in PR #2183:
URL: https://github.com/apache/doris-website/pull/2183#discussion_r2055700294


##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/data-modification/DML/INSERT-OVERWRITE.md:
##########
@@ -69,15 +68,34 @@ INSERT OVERWRITE table table_name
 1. 在当前版本中,会话变量 `enable_insert_strict` 默认为 `true`,如果执行 `INSERT OVERWRITE` 
语句时,对于有不符合目标表格式的数据被过滤掉的话会重写目标表失败(比如重写分区时,不满足所有分区条件的数据会被过滤)。
 2. INSERT OVERWRITE 
语句会首先创建一个新表,将需要重写的数据插入到新表中,最后原子性的用新表替换旧表并修改名称。因此,在重写表的过程中,旧表中的数据在重写完毕之前仍然可以正常访问。
 
-#### For Auto Partition Table
+### For Auto Partition Table
 
 如果 INSERT OVERWRITE 的目标表是自动分区表,那么行为受到 [Session 
Variable](../../session/variable/SET-VARIABLE.md) 
`enable_auto_create_when_overwrite` 的控制,具体行为如下:
+
 1. 若未指定 PARTITION(覆写整表),当 `enable_auto_create_when_overwrite` 为 
`true`,在覆写整表已有数据的同时,对于没有对应分区的数据,按照该表的自动分区规则创建分区,并容纳这些原本没有对应分区的数据。如果 
`enable_auto_create_when_overwrite` 为 `false`,未找到分区的数据将累计错误行直到失败。
 2. 如果指定了覆写的 PARTITION,那么在此过程中,AUTO PARTITION 
表表现得如同普通分区表一样,不满足现有分区条件的数据将被过滤,而非创建新的分区。
 3. 若指定 PARTITION 为 `partition(*)` (自动检测分区并覆写),当 
`enable_auto_create_when_overwrite` 为 
`true`,对于那些在表中有对应分区的数据,覆写它们对应的分区,其他已有分区不变。同时,对于没有对应分区的数据,按照该表的自动分区规则创建分区,并容纳这些原本没有对应分区的数据。如果
 `enable_auto_create_when_overwrite` 为 `false`,未找到分区的数据将累计错误行直到失败。
 
 `enable_auto_create_when_overwrite` 自 3.0.3 引入,在没有 
`enable_auto_create_when_overwrite` 的版本,行为如同该变量值为 `false`。
 
+速查结论如下:
+
+1. 对于开启 `enable_auto_create_when_overwrite` 的自动分区表:
+
+|    | 覆写的分区 | 清空其他分区 | 无分区的数据自动创建 |
+|-|-|-|-|
+| 无标识(全表) | 所有 | ✅ | ✅ |

Review Comment:
   尽量不要使用 emoj 



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to