同步 OceanBase 数据库的数据至 DataHub

本文为您介绍如何同步 OceanBase 数据库(MySQL 和 Oracle 租户)的数据至 DataHub。

前提条件

使用限制

  • 选择全量同步时,数据传输仅支持同步具有唯一键的表。

  • 同步 DDL 仅支持 BLOB 类型的 Topic。

  • 数据同步过程中,数据传输支持删除表之后再新建表,即支持对已经同步的表进行 DROP TABLE 操作后,再执行 CREATE TABLE。数据传输不支持通过重命名的方式新建表,即不支持执行 RENAME TABLE a TO a_tmp 操作。

  • 数据传输支持字符集配置为 UTF-8 和 GBK 的数据同步。

  • 待同步的表名和其中的列名不能包含中文字符。

  • 数据传输仅支持同步库名、表名和列名为 ASCII 码且不包含特殊字符(包括换行、空格,以及 .|"'`()=;/&\)的对象。

  • 数据传输不支持 OceanBase 备库作为源端。

DataHub 相关的使用限制如下:

  • DataHub 官方限制一条消息的具体大小取决于云环境,通常为 1 MB。

  • 由于是攒批发送,DataHub 限制一次只能发送 4 MB 的消息。

  • DataHub 的官方限制和命名规范请参见 限制描述

注意事项

  • 在源端为 OceanBase 数据库并开启同步 DDL 的数据同步任务中,如果源端库表发生重命名(RENAME)操作,建议您重新启动任务,避免增量同步丢失数据。

  • 当 OceanBase 数据库 V4.x 进行增量同步时,如果生成列没有标记 STORED 属性,Tuple 类型的 Topic 写入到目标端为 NULL,而 BLOB 类型的 Topic 目标端不会写入该列。

  • 当更新的行包括 LOB 列时:

    • 如果 LOB 列为更新列,请勿依赖 LOB 列在 UPDATEDELETE 操作前的值。

      目前使用 LOB 列进行存储的数据类型包括 JSON、GIS、XML、UDT(用户定义类型),以及 LONGTEXT、MEDIUMTEXT 等各类 TEXT。

    • 如果 LOB 列为非更新列,LOB 列在 UPDATEDELETE 操作前或操作后的值均为 NULL。

  • 如果在创建数据同步任务时,您仅配置了 增量同步,数据传输要求源端数据库的本地增量日志保存 48 小时以上。

    如果在创建数据同步任务时,您配置了 全量同步+增量同步,数据传输要求源端数据库的本地增量日志至少保留 7 天以上。否则数据传输可能因无法获取增量日志而导致数据同步任务失败,甚至导致源端和目标端数据不一致。

  • 同步 OceanBase 数据库的增量数据至 DataHub 时,其中包含表结构至 DataHub Schema 的初始化 Schema。下表为 DataHub 数据类型的支持情况,仅适用于 Tuple 类型的 Topic。

    类型

    描述

    值域

    BIGINT

    8 字节有符号整型

    -9223372036854775807 ~ 9223372036854775807

    DOUBLE

    8 字节双精度浮点数

    -1.0 _10^308 ~ 1.0 _10^308

    BOOLEAN

    布尔类型

    • True/False

    • true/false

    • 0/1

    TIMESTAMP

    时间戳类型

    表示到微秒的时间戳类型

    STRING

    字符串,仅支持 UTF-8 编码

    单个 STRING 列最大支持 2 MB

    INTEGER

    4 字节整型

    -2147483648 ~ 2147483647

    FLOAT

    4 字节单精度浮点数

    -3.40292347_10^38 ~ 3.40292347_10^38

    DECIMAL

    数字型

    - 10^38 +1 ~ 10^38 - 1

支持的源端和目标端实例类型

下表中,OceanBase 数据库 MySQL 租户简称为 OB_MySQL,OceanBase 数据库 Oracle 租户简称为 OB_Oracle。

源端

目标端

OB_MySQL(OceanBase 集群实例)

DataHub(阿里云 DataHub 实例)

OB_MySQL(OceanBase 集群实例)

DataHub(VPC 内自建 DataHub 实例)

OB_MySQL(OceanBase 集群实例)

DataHub(公网 DataHub 实例)

OB_MySQL(Serverless 实例)

DataHub(阿里云 DataHub 实例)

OB_MySQL(Serverless 实例)

DataHub(VPC 内自建 DataHub 实例)

OB_MySQL(Serverless 实例)

DataHub(公网 DataHub 实例)

OB_Oracle(OceanBase 集群实例)

DataHub(阿里云 DataHub 实例)

OB_Oracle(OceanBase 集群实例)

DataHub(VPC 内自建 DataHub 实例)

OB_Oracle(OceanBase 集群实例)

DataHub(公网 DataHub 实例)

同步 DDL 支持的范围

重要

同步 DDL 仅支持 BLOB 类型的 Topic。

  • 修改表 ALTER TABLE

    • 添加列 ADD COLUMN

    • 修改列的长度 MODIFY COLUMN

    • 删除列 DROP COLUMN

  • 创建索引 CREATE INDEX

  • 删除索引 DROP INDEX

  • 清空表 TRUNCATE

    说明

    延迟删除场景下,同一个事务中会有两条一样的 TRUNCATE TABLE DDL。此时,下游消费需要按照幂等方式处理。

数据类型映射

目前同步的 DataHub 类型仅支持 INTEGER、BIGINT、TIMESTAMP、FLOAT、DOUBLE、DECIMAL、STRING 和 BOOLEAN。

  • 如果您选择新建 Topic 的映射方式时,创建了其他类型的 Topic,会导致数据同步失败。

  • 本文表格中提供的默认映射规则为最合适的映射。如果您改变映射,可能会产生报错。

OceanBase 数据库 MySQL 租户和 DataHub 之间的数据类型映射

OceanBase 数据库 MySQL 租户

默认映射 DataHub 类型

BIT

STRING(Base64 编码)

CHAR

STRING

BINARY

STRING(Base64 编码)

VARBINARY

STRING(Base64 编码)

INT

BIGINT

TINYINT

BIGINT

SMALLINT

BIGINT

MEDIUMINT

BIGINT

BIGINT

DECIMAL(因为无符号超过 Java 中的 LONG 大小)

FLOAT

DECIMAL

DOUBLE

DECIMAL

DECIMAL

DECIMAL

DATE

STRING

TIME

STRING

YEAR

BIGINT

DATETIME

STRING

TIMESTAMP

TIMESTAMP(使用毫秒级时间戳展示)

VARCHAR

STRING

TINYBLOB

STRING(Base64 编码)

TINYTEXT

STRING

BLOB

STRING(Base64 编码)

TEXT

STRING

MEDIUMBLOB

STRING(Base64 编码)

MEDIUMTEXT

STRING

LONGBLOB

STRING(Base64 编码)

LONGTEXT

STRING

ENUM

STRING

SET

STRING

OceanBase 数据库 Oracle 租户和 DataHub 之间的数据类型映射

OceanBase 数据库 Oracle 租户

默认映射 DataHub 类型

CHAR

STRING

NCHAR

STRING

VARCHAR2

STRING

NVARCHAR2

STRING

CLOB

STRING

NCLOB

STRING

BLOB

STRING(Base64 编码)

NUMBER

DECIMAL

BINARY_FLOAT

DECIMAL

BINARY_DOUBLE

DECIMAL

DATE

STRING

TIMESTAMP

STRING

TIMESTAMP WITH TIME ZONE

STRING

TIMESTAMP WITH LOCAL TIME ZONE

STRING

INTERVAL YEAR TO MONTH

STRING

INTERVAL DAY TO SECOND

STRING

LONG

STRING(Base64 编码)

RAW

STRING(Base64 编码)

LONG RAW

STRING(Base64 编码)

ROWID

STRING

UROWID

STRING

FLOAT

DECIMAL

补充 Properties

如果自行创建 Topic,启动数据同步任务前,请在 DataHub 的 Schema 中补充下述 Properties。如果由数据传输自动创建 Topic 和结构同步,数据传输会自动补充下述 Properties。

重要

该部分内容仅适用于 Tuple 类型的 Topic。

名称

类型

含义

oms_timestamp

STRING

发生变更的时间。

oms_table_name

STRING

源端为表时,变更表名。

oms_database_name

STRING

源端为数据库时,变更库名。

oms_sequence

STRING

数据至同步进程内存中的时间戳,由时间 + 5 位递增数字组成。如果发生时钟回退的情况,会导致数据不一致。

oms_record_type

STRING

变更类型,包括 UPDATEINSERTDELETE

oms_is_before

STRING

如果是 UPDATE 类型,Y 表示该条数据为变更前的数据。

oms_is_after

STRING

如果是 UPDATE 类型,Y 表示该条数据为变更后的数据。

操作步骤

  1. 登录 OceanBase 管理控制台,购买数据同步任务。

    详情请参见 购买数据同步任务

  2. 数据传输 > 数据同步 页面,单击新购买的数据同步任务后的 配置

    image.png

    如果您需要引用已有的任务配置信息,可以单击 引用配置。详情请参见 引用和清空数据同步任务配置

  3. 选择源和目标 页面,配置各项参数。

    参数

    描述

    同步任务名称

    建议使用中文、数字和字母的组合。名称中不能包含空格,长度不能超过 64 个字符。

    标签(可选)

    单击文本框,在下拉列表中选择目标标签。您也可以单击 管理标签 进行新建、修改和删除。详情请参见 通过标签管理数据同步任务

    源端

    如果您已新建 OceanBase 数据源,请从下拉列表中进行选择。如果未新建,请单击下拉列表中的 新建数据源,在右侧对话框进行新建。参数详情请参见 新建 OceanBase 数据源

    重要

    源端不支持 OceanBase 数据库的 实例类型OceanBase 租户实例

    目标端

    如果您已新建 DataHub 数据源,请从下拉列表中进行选择。如果未新建,请单击下拉列表中的 新建数据源,在右侧对话框进行新建。参数详情请参见 新建 DataHub 数据源

  4. 单击 下一步。在 选择同步类型 页面,选择当前数据同步任务的同步类型。

    image

    同步类型包括 结构同步全量同步增量同步。其中,结构同步 实际为创建 Topic,增量同步 包括 DML 同步(包括 InsertDeleteUpdate)和 DDL 同步,您可以根据需求进行自定义配置。详情请参见 自定义配置 DDL/DML

    说明

    如果您在此处选择了 DDL 同步,则 选择同步对象 页面的 Topic 类型仅支持选择 BLOB

    image.png

  5. 单击 下一步。在 选择同步对象 页面,选择当前数据同步任务需要同步的 Topic 类型和对象。

    Topic 类型包括 TupleBLOB。Tuple 类型的 Topic 不支持同步 DDL,支持类似于数据库记录的数据,每条记录包含多个列。BLOB 类型的 Topic 仅支持写入一块二进制数据作为一个 Record,数据将会以 BASE64 编码传输。详情请参见 DataHub 官方文档。

    选择需要同步的 Topic 类型后,您可以通过 指定对象匹配规则 两个入口选择同步对象。本文为您介绍通过 指定对象 方式选择同步对象的具体操作,配置匹配规则的详情请参见 配置匹配规则 中库到消息队列的通配规则说明和配置方式。

    说明

    如果您在 选择同步类型 步骤已勾选 DDL 同步,建议通过匹配规则方式选择同步对象,以确保所有符合同步对象规则的新增对象都将被同步。如果您通过指定对象方式选择同步对象,则新增对象或重命名后的对象将不会被同步。

    1. 选择同步对象 区域,选中 指定对象

    2. 在选择区域左侧选中需要同步的对象。

    3. 单击 >

    4. 根据业务需求,选择映射方式。

      • 如果您需要同步 Tuple 类型的单张表或同步 BLOB 类型的表,请在 将对象映射至 Topic 对话框中,选择需要的映射方式进行配置,单击 确定

        image.png

        如果选择同步类型时未勾选 结构同步,则仅支持选择 已有 Topic。如果选择同步类型时已选择 结构同步,则仅支持选择一种映射方式进行 Topic 的创建或选择。

        例如,已选择结构同步的情况下,您使用了新建 Topic 和选择已有 Topic 两种映射方式,或通过重命名的方式更改了 Topic 的名称,会因为选项冲突导致预检查报错。

        参数

        描述

        新建 Topic

        在文本框中输入新建 Topic 的名称。支持 128 位以内的字母、数字或下划线(_),且必须以字母开头。

        选择 Topic

        数据传输提供查询 DataHub Topic 的能力,您可以单击 选择 Topic,在 已有 Topic 下拉列表中,搜索并选中需要同步的 Topic。

        批量生成 Topic

        批量生成 Topic 的规则为 Topic_${Database Name}_${Table Name}

        如果您选择 新建 Topic批量生成 Topic,结构同步成功后,在 DataHub 侧能够查询到新建的 Topic。其分片数量默认为 2 个,数据过期时间默认为 7 天,且不支持修改。

      • 如果您需要同步 Tuple 类型的多张表,请在弹出的对话框中,单击 确定

        image.png

        如果您选择 Tuple 类型的 Topic 但未勾选 结构同步,选择多张表时,需要在 将对象映射至 Topic 对话框中选择一个已有 Topic 并单击 确定

        image.png

        此时,右侧一个 Topic 下会显示多张表,但实际仅支持同步一张表。单击 下一步,界面会弹出提示:Tuple 类型的 Topic 与表仅支持 One to One 映射关系。

        image.png

    数据传输支持通过文本导入对象,并支持对目标端对象进行重命名、设置行过滤、移除单个对象或全部对象等操作。目标端对象的结构为 Topic>Database>Table。

    说明

    通过 匹配规则 方式选择同步对象时,重命名能力由匹配规则语法覆盖,操作处仅支持设置过滤条件,以及选择分片列和需要同步的列。详情请参见 配置匹配规则

    image.png

    操作

    步骤

    导入对象

    1. 在选择区域的右侧列表中,单击右上角的 导入对象

    2. 在对话框中,单击 确定

      重要

      导入会覆盖之前的操作选择,请谨慎操作。

    3. 导入同步对象 对话框中,导入需要同步的对象。 您可以通过导入 CSV 文件的方式进行库表重命名、设置行过滤条件等操作。详情请参见 下载和导入同步对象配置

    4. 单击 检验合法性

    5. 通过合法性的检验后,单击 确定

    更改 Topic

    选择 Topic 类型为 BLOB 时,支持对目标对象进行更改 Topic 操作。详情请参见 更改 Topic

    设置

    数据传输支持 WHERE 条件实现行过滤,以及选择分片列和需要同步的列。

    1. 在选择区域的右侧列表中,鼠标悬停至目标表对象。

    2. 单击显示的 设置

    3. 设置 对话框中,您可以进行以下操作。

      • 行过滤条件 区域的文本框中,输入标准的 SQL 语句中的 WHERE 子句,来配置行过滤。详情请参见 SQL 条件过滤数据

      • 分片列 下拉列表中,选择目标分片列。您可以选择多个字段作为分片列,该参数为可选。

        选择分片列时,如果没有特殊情况,默认选择主键即可。如果存在主键负载不均衡的情况,请选择唯一性标识且负载相对均衡的字段作为分片列,避免潜在的性能问题。分片列的主要作用如下:

        • 负载均衡:在目标端可以进行并发写入的情况下,通过分片列区分发送消息需要使用的特定线程。

        • 有序性:由于存在并发写入可能导致的无序问题,数据传输确保在分片列的值相同的情况下,用户接收到的消息是有序的。此处的有序是指变更顺序(DML 对于一列的执行顺序)。

      • 选择列 区域,选择需要同步的列。详情请参见 列过滤

    4. 单击 确定

    移除/全部移除

    数据传输支持在数据映射时,对暂时选中到目标端的单个或多个对象进行移除操作。

    • 移除单个同步对象

      在选择区域的右侧列表中,鼠标悬停至目标对象,单击显示的 移除,即可移除该同步对象。

    • 移除全部同步对象

      在选择区域的右侧列表中,单击右上角的 全部移除。在对话框中,单击 确定,即可移除全部同步对象。

  6. 单击 下一步。在 同步选项 页面,配置各项参数。

    • 全量同步

      选择同步类型 页面,选中 全量同步,才会显示下述参数。

      image

      参数

      描述

      读取并发配置

      该参数用于配置全量同步阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。

      写入并发配置

      该参数用于配置全量同步阶段往目标端写入数据的并发数,最大限制为 512。并发数过高可能会造成目标端压力过大,影响业务。

      全量同步速率限制

      您可以根据实际需求决定是否开启全量同步速率限制。如果开启,请设置 RPS(全量同步阶段每秒最多可以同步至目标端的数据行数的最大值限制)和 BPS(全量同步阶段每秒最多可以同步至目标端的数据量的最大值限制)。

      说明

      此处设置的 RPS 和 BPS 仅作为限速限流能力,全量同步实际可以达到的性能受限于源端、目标端、实例规格配置等因素的影响。

    • 增量同步

      选择同步类型 页面,选中 增量同步,才会显示下述参数。

      image

      参数

      描述

      写入并发配置

      该参数用于配置增量同步阶段往目标端写入数据的并发数,最大限制为 512。并发数过高可能会造成目标端压力过大,影响业务。

      增量同步速率限制

      您可以根据实际需求决定是否开启增量同步速率限制。如果开启,请设置 RPS(增量同步阶段每秒最多可以同步至目标端的数据行数的最大值限制)和 BPS(增量同步阶段每秒最多可以同步至目标端的数据量的最大值限制)。

      说明

      此处设置的 RPS 和 BPS 仅作为限速限流能力,增量同步实际可以达到的性能受限于源端、目标端、实例规格配置等因素的影响。

      增量同步起始位点

      • 如果选择同步类型时已选择 全量同步,该参数不会显示。

      • 如果选择同步类型时未选择 全量同步,但选择了 增量同步,请在此处指定同步某个时间节点之后的数据,默认为当前系统时间。详情请参见 设置增量同步位点

    • 高级选项

      image

      参数

      描述

      序列化方式

      控制数据同步至 DataHub 的消息格式,目前支持 DefaultCanalDataWorks(支持 V2.0)、SharePlexDefaultExtendColumnTypeDebeziumDebeziumFlattenDebeziumSmt。详情请参见 序列化方式的格式说明

      重要
      • 仅在 选择同步对象 页面,选择 Topic 类型为 BLOB 时,才会显示该参数。

      • 目前仅 OceanBase 数据库 MySQL 租户支持 DebeziumDebeziumFlattenDebeziumSmt

      分区规则

      同步源端数据至 DataHub Topic 的规则,目前支持 HashTable。推荐您选择 Table,以确保下游在消费消息时,不会出现 DDL 与 DML 消费不统一的情况。

      • Hash 表示数据传输使用一定的 Hash 算法,根据主键值或分片列值 Hash 选择 DataHub 的 Shard。

      • Table 表示数据传输将一张表中的全部数据投递至同一个分区中,以表名作为 Hash 键。

      说明

      如果在 选择同步类型 页面选择了 同步 DDL,则分区规则仅支持 Table

      业务系统标识(可选)

      仅选择 序列化方式DataWorks 时,会显示该参数,用于标识数据的业务系统来源,以便您后续进行自定义处理。该业务系统标识的长度限制为 1~20 个字符。

  7. 单击 预检查

    预检查 环节,数据传输仅检查列名、列类型,以及是否为空,不检查长度和默认值。如果预检查报错:

    • 您可以在排查并处理问题后,重新执行预检查,直至预检查成功。

    • 您也可以单击错误预检查项操作列中的 跳过,会弹出对话框提示您跳过本操作的具体影响,确认可以跳过后,请单击对话框中的 确定

  8. 预检查成功后,单击 启动任务

    如果您暂时无需启动任务,请单击 保存。后续您只能在 同步任务列表 页面手动启动任务或通过批量操作启动任务。批量操作的详情请参见 批量操作数据同步任务

    数据传输支持在数据同步任务运行过程中修改同步对象,详情请参见 查看和修改同步对象及其过滤条件。数据同步任务启动后,会根据选择的同步类型依次执行,详情请参见 查看同步详情

如果数据同步任务运行报错(通常由于网络不通或进程启动过慢导致),您可以在数据同步任务的列表或详情页面,单击 恢复

相关文档