日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

RDS MySQL遷移至阿里云消息隊列Kafka版

重要

本文中含有需要您注意的重要提示信息,忽略該信息可能對您的業務造成影響,請務必仔細閱讀。

本文介紹如何使用數據傳輸服務DTS(Data Transmission Service),將RDS MySQL遷移至阿里云消息隊列Kafka版

前提條件

  • 已創建源實例RDS MySQL和目標實例阿里云消息隊列Kafka版。

    說明
  • 目標實例阿里云消息隊列Kafka版的存儲空間須大于源實例RDS MySQL占用的存儲空間。

  • 目標實例阿里云消息隊列Kafka版中已創建用于接收遷移數據的Topic,詳情請參見步驟一:創建Topic

注意事項

說明

DTS不會將源數據庫中的外鍵遷移到目標數據庫,因此源數據庫的級聯、刪除等操作不會遷移到目標數據庫。

類型

說明

源庫限制

  • 帶寬要求:源庫所屬的服務器需具備足夠出口帶寬,否則將影響數據遷移速率。

  • 待遷移的表需具備主鍵或唯一約束,且字段具有唯一性,否則可能會導致目標數據庫中出現重復數據。

  • 如遷移對象為表級別,且需進行編輯(如表列名映射),則單次遷移任務僅支持遷移至多1000張表。當超出數量限制,任務提交后會顯示請求報錯,此時建議您拆分待遷移的表,分批配置多個任務,或者配置整庫的遷移任務。

  • 如需進行增量遷移,Binlog日志:

    • 在云數據庫RDS控制臺參數設置界面開啟Binglog,開啟方法請參見設置實例參數。并且binlog_format為row、binlog_row_image為full。否則預檢查階段提示報錯,且無法成功啟動數據遷移任務。

      重要

      如源實例自建MySQL是雙主集群(兩者互為主從),為保障DTS能獲取全部的Binlog日志,則您需開啟參數log_slave_updates,具體操作請參見為自建MySQL創建賬號并設置binlog。

    • DTS要求源數據庫的本地Binlog日志至少保留7天以上,否則DTS可能因無法獲取Binlog而導致任務失敗,極端情況下甚至可能會導致數據不一致或丟失。由于您所設置的Binlog日志保存時間低于DTS要求的時間進而導致的問題,不在DTS的SLA保障范圍內。如源為RDS MySQL,具體操作請參見管理本地日志(Binlog)

  • 源庫的操作限制:

    • 在庫表結構遷移和全量遷移階段,請勿執行庫或表結構變更的DDL操作,否則數據遷移任務會失敗。

    • 如僅執行全量數據遷移,請勿向源實例中寫入新的數據,否則會導致源和目標數據不一致。為實時保持數據一致性,建議選擇結構遷移、全量數據遷移和增量數據遷移。

  • 在遷移實例運行期間,不記錄Binlog的變更操作所產生的數據(例如通過物理備份功能恢復、級聯操作等產生的數據),不會被遷移到目標庫。

    說明

    若有該情況,您可以在業務允許的前提下,重新遷移全量數據。

  • 若源庫為8.0.23及以后版本的MySQL數據庫,且待遷移的數據中包含不可見的隱藏列,則可能會因為無法獲取該列的數據而導致數據丟失。

    說明
    • 您可以使用ALTER TABLE <table_name> ALTER COLUMN <column_name> SET VISIBLE;命令,將該隱藏列設置為可見。更多信息,請參見Invisible Columns

    • 無主鍵的表會自動生成不可見的隱藏主鍵,您也需要將該隱藏主鍵設置為可見。更多信息,請參見Generated Invisible Primary Keys。

其他限制

  • 已完成Kafka集群的搭建,且Kafka的版本為0.10.1.0~2.0版本。

  • 遷移對象僅支持數據表。

  • 執行數據遷移前需評估源庫和目標庫的性能,同時建議業務低峰期執行數據遷移。否則全量數據遷移時DTS占用源和目標庫一定讀寫資源,可能會導致數據庫的負載上升。

  • 由于全量數據遷移會并發執行INSERT操作,導致目標數據庫的表產生碎片,因此全量遷移完成后目標數據庫的表存儲空間會比源實例的表存儲空間大。

  • 請確認DTS對數據類型為FLOAT或DOUBLE的列的遷移精度是否符合業務預期。DTS會通過ROUND(COLUMN,PRECISION)來讀取這兩類列的值。如果沒有明確定義其精度,DTS對FLOAT的遷移精度為38位,對DOUBLE的遷移精度為308位。

  • DTS會嘗試恢復七天之內遷移失敗任務。因此業務切換至目標實例前,請務必結束或釋放該任務,或者將DTS訪問目標實例賬號的寫權限用revoke命令回收掉。避免該任務被自動恢復后,源端數據覆蓋目標實例的數據。

  • 不允許目標庫有除DTS以外的數據寫入,否則會導致源和目標庫數據不一致。

  • 在遷移期間,若目標Kafka發生了擴容或縮容,您需要重啟實例。

  • 若RDS MySQL實例已開通全密態(EncDB)功能,則不支持全量數據遷移。

  • 若實例運行失敗,DTS技術支持人員將在8小時內嘗試恢復該實例。在恢復失敗實例的過程中,可能會對該實例進行重啟、調整參數等操作。

    說明

    在調整參數時,僅會修改實例的參數,不會對數據庫中的參數進行修改。可能修改的參數,包括但不限于修改實例參數中的參數。

特殊情況

  • 當源庫為自建MySQL時:

    • 遷移時源庫進行主備切換,會導致遷移任務失敗。

    • 由于DTS的延遲時間是根據遷移到目標庫最后一條數據的時間戳和當前時間戳對比得出,源庫長時間未執行DML操作可能導致延遲信息不準確。如果任務顯示的延遲時間過大,您可以在源庫執行一個DML操作來更新延遲信息。

      說明

      如果遷移對象選擇為整庫,您還可以創建心跳表,心跳表每秒定期更新或者寫入數據。

    • DTS會在源庫定時執CREATE DATABASE IF NOT EXISTS `test`命令以推進Binlog位點。

  • 當源庫為RDS MySQL時:

    • 若您需要遷移增量數據,則不記錄事務日志的RDS MySQL實例(如RDS MySQL 5.6版本的只讀實例)不支持作為源庫。

    • DTS會在源庫定時執CREATE DATABASE IF NOT EXISTS `test`命令以推進Binlog位點。

費用說明

遷移類型

鏈路配置費用

公網流量費用

結構遷移和全量數據遷移

不收費。

通過公網將數據遷移出阿里云時將收費,詳情請參見計費概述。

增量數據遷移

收費,詳情請參見計費概述

遷移類型說明

  • 庫表結構遷移

    DTS將源庫中遷移對象的結構定義遷移到目標庫。

  • 全量遷移

    DTS將源庫中遷移對象的存量數據,全部遷移到目標庫中。

  • 增量遷移

    DTS在全量遷移的基礎上,將源庫的增量更新數據遷移到目標庫中。通過增量數據遷移可以實現在自建應用不停機的情況下,平滑地完成數據遷移。

支持增量遷移的SQL操作

操作類型

SQL操作語句

DML

INSERT、UPDATE、DELETE

DDL

  • CREATE TABLE、ALTER TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE

  • CREATE VIEW、ALTER VIEW、DROP VIEW

  • CREATE PROCEDURE、ALTER PROCEDURE、DROP PROCEDURE

  • CREATE FUNCTION、DROP FUNCTION、CREATE TRIGGER、DROP TRIGGER

  • CREATE INDEX、DROP INDEX

數據庫賬號的權限要求

數據庫

庫表結構遷移

全量遷移

增量遷移

RDS MySQL實例

待遷移對象的讀權限。

操作步驟

  1. 進入目標地域的遷移任務列表頁面(二選一)。

    通過DTS控制臺進入

    1. 登錄數據傳輸服務DTS控制臺。

    2. 在左側導航欄,單擊數據遷移。

    3. 在頁面左上角,選擇遷移實例所屬地域。

    通過DMS控制臺進入

    說明

    實際操作可能會因DMS的模式和布局不同,而有所差異。更多信息。請參見極簡模式控制臺自定義DMS界面布局與樣式。

    1. 登錄DMS數據管理服務

    2. 在頂部菜單欄中,選擇集成與開發 > 數據傳輸(DTS) > 數據遷移。

    3. 遷移任務右側,選擇遷移實例所屬地域。

  2. 單擊創建任務,進入任務配置頁面。

  3. 可選:在頁面右上角,單擊試用新版配置頁

    說明
    • 若您已進入新版配置頁(頁面右上角的按鈕為返回舊版配置頁),則無需執行此操作。

    • 新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。

  4. 配置源庫及目標庫信息。

    警告

    選擇源和目標實例后,建議您仔細閱讀頁面上方顯示的使用限制,否則可能會導致任務失敗或數據不一致。

    類別

    配置

    說明

    任務名稱

    DTS會自動生成一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便于后續識別。

    源庫信息

    選擇DMS數據庫實例

    • 如使用已有實例,下方數據庫信息將自動填入,您無需重復輸入。

    • 如不使用已有實例,您需要輸入下方的數據庫信息。

    數據庫類型

    選擇MySQL。

    接入方式

    選擇云實例。

    實例地區

    選擇源RDS MySQL實例所屬地域。

    是否跨阿里云賬號

    本場景為同一阿里云賬號間遷移,選擇不跨賬號

    RDS實例ID

    選擇源RDS MySQL實例ID。

    數據庫賬號

    填入源RDS MySQL實例,需要具備待遷移對象的讀權限。

    數據庫密碼

    填入該數據庫賬號對應的密碼。

    連接方式

    根據需求選擇非加密連接SSL安全連接。如果設置為SSL安全連接,您需要提前開啟RDS MySQL實例的SSL加密功能,詳情請參見使用云端證書快速開啟SSL鏈路加密。

    目標庫信息

    選擇DMS數據庫實例

    您可以按實際需求,選擇是否使用已有實例。

    • 如使用已有實例,下方數據庫信息將自動填入,您無需重復輸入。

    • 如不使用已有實例,您需要輸入下方的數據庫信息。

    數據庫類型

    選擇Kafka。

    接入方式

    選擇云實例

    實例地區

    選擇目標阿里云消息隊列Kafka版實例所屬地域。

    Kafka實例ID

    選擇目標阿里云消息隊列Kafka版實例的ID。

    連接方式

    根據業務及安全需求,選擇非加密連接SCRAM-SHA-256。

    Topic

    在下拉框中選擇具體的Topic。

    存儲DDL的Topic

    在下拉框中選擇具體的Topic,用于存儲DDL信息。如果未指定,DDL信息默認存儲在Topic選擇的Topic中。

    是否使用Kafka Schema Registry

    Kafka Schema Registry是元數據提供服務層,提供了一個RESTful接口,用于存儲和檢索Avro Schema。

    • :不使用Kafka Schema Registry。

    • :使用Kafka Schema Registry。您需要輸入Avro Schema在Kafka Schema Registry注冊的URL或IP。

  5. 配置完成后,在頁面下方單擊測試連接以進行下一步

    說明
    • 請確保DTS服務的IP地址段能夠被自動或手動添加至源庫和目標庫的安全設置中,以允許DTS服務器的訪問。更多信息,請參見添加DTS服務器的IP地址段。

    • 若源庫或目標庫為自建數據庫(接入方式不是云實例),則還需要在彈出的DTS服務器訪問授權對話框單擊測試連接。

  6. 配置任務對象及高級配置。

    配置

    說明

    遷移類型

    • 如果只需要進行全量遷移,請同時選中庫表結構遷移全量遷移。

    • 如果需要進行不停機遷移,請同時選中庫表結構遷移、全量遷移增量遷移

    說明
    • 目標庫為阿里云消息隊列Kafka版實例時,不支持庫表結構遷移。

    • 如果未選擇增量遷移,為保障數據一致性,數據遷移期間請勿在源實例中寫入新的數據。

    目標已存在表的處理模式

    • 預檢查并報錯攔截:檢查目標數據庫中是否有同名的表。如果目標數據庫中沒有同名的表,則通過該檢查項目;如果目標數據庫中有同名的表,則在預檢查階段提示錯誤,數據遷移任務不會被啟動。

      說明

      如果目標庫中同名的表不方便刪除或重命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射。

    • 忽略報錯并繼續執行:跳過目標數據庫中是否有同名表的檢查項。

      警告

      選擇為忽略報錯并繼續執行,可能導致數據不一致,給業務帶來風險,例如:

      • 表結構一致的情況下,在目標庫遇到與源庫主鍵的值相同的記錄:

        • 全量期間,DTS會保留目標集群中的該條記錄,即源庫中的該條記錄不會遷移至目標數據庫中。

        • 增量期間,DTS不會保留目標集群中的該條記錄,即源庫中的該條記錄會覆蓋至目標數據庫中。

      • 表結構不一致的情況下,可能導致只能遷移部分列的數據或遷移失敗,請謹慎操作。

    投遞到Kafka的數據格式

    根據需求選擇遷移到Kafka實例中的數據存儲格式。

    • 如果您選擇DTS Avro,根據DTS Avro的schema定義進行數據解析,schema定義詳情請參見DTS Avro的schema定義

    • 如果您選擇Canal Json,Canal Json的參數說明和示例請參見Canal Json說明。

    Kafka壓縮格式

    根據需求選擇Kafka壓縮消息的壓縮格式。

    • LZ4(默認):壓縮率較低,壓縮速率較高。

    • GZIP:壓縮率較高,壓縮速率較低。

      說明

      對CPU的消耗較高。

    • Snappy:壓縮率中等,壓縮速率中等。

    投遞到Kafka Partition策略

    根據業務需求選擇遷移的策略,詳細介紹請參見Kafka Partition遷移策略說明。

    目標庫對象名稱大小寫策略

    您可以配置目標實例中遷移對象的庫名、表名和列名的英文大小寫策略。默認情況下選擇DTS默認策略,您也可以選擇與源庫、目標庫默認策略保持一致。更多信息,請參見目標庫對象名稱大小寫策略。

    源庫對象

    源庫對象框中單擊待遷移的對象,然后單擊向右小箭頭將其移動到已選擇對象框。

    說明

    遷移對象選擇粒度為表。

    已選擇對象

    本示例無需額外配置。您可以使用映射功能,設置源表在目標Kafka實例中的Topic名稱、Topic的Partition數量、Partition Key等信息。更多信息,請參見映射信息

    說明
    • 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。

    • 如需選擇增量遷移的DDL或DML操作,請在已選擇對象中右擊待遷移對象,并在彈出的對話框中選擇所需增量遷移的DML和DDL操作。支持的操作請參見支持增量遷移的SQL操作

  7. 單擊下一步高級配置,進行高級配置。

    配置

    說明

    選擇調度該任務的專屬集群

    DTS默認將任務調度到共享集群上,您無需選擇。若您希望任務更加穩定,可以購買專屬集群來運行DTS遷移任務。更多信息,請參見什么是DTS專屬集群

    設置告警

    是否設置告警,當遷移失敗或延遲超過閾值后,將通知告警聯系人。

    源庫、目標庫無法連接后的重試時間

    在遷移任務啟動后,若源庫或目標庫連接失敗則DTS會報錯,并會立即進行持續的重試連接,默認重試720分鐘,您也可以在取值范圍(10~1440分鐘)內自定義重試時間,建議設置30分鐘以上。如果DTS在設置的時間內重新連接上源、目標庫,遷移任務將自動恢復。否則,遷移任務將失敗。

    說明
    • 針對同源或者同目標的多個DTS實例,網絡重試時間以后創建任務的設置為準。

    • 由于連接重試期間,DTS將收取任務運行費用,建議您根據業務需要自定義重試時間,或者在源和目標庫實例釋放后盡快釋放DTS實例。

    源庫、目標庫出現其他問題后的重試時間

    在遷移任務啟動后,若源庫或目標庫出現非連接性的其他問題(如DDL或DML執行異常),則DTS會報錯并會立即進行持續的重試操作,默認持續重試時間為10分鐘,您也可以在取值范圍(1~1440分鐘)內自定義重試時間,建議設置10分鐘以上。如果DTS在設置的重試時間內相關操作執行成功,遷移任務將自動恢復。否則,遷移任務將會失敗。

    重要

    源庫、目標庫出現其他問題后的重試時間的值需要小于源庫、目標庫無法連接后的重試時間的值。

    是否限制全量遷移速率

    在全量遷移階段,DTS將占用源庫和目標庫一定的讀寫資源,可能會導致數據庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設置(設置每秒查詢源庫的速率QPS、每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

    說明

    僅當遷移類型選擇了全量遷移時才可以配置。

    是否限制增量遷移速率

    您也可以根據實際情況,選擇是否對增量遷移任務進行限速設置(設置每秒增量遷移的行數RPS每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

    說明

    僅當遷移類型選擇了增量遷移時才可以配置。

    環境標簽

    您可以根據實際情況,選擇用于標識實例的環境標簽。本示例無需選擇。

    配置ETL功能

    選擇是否配置ETL功能。關于ETL的更多信息,請參見什么是ETL。

    是否去除正反向任務的心跳表sql

    根據業務需求選擇是否在DTS實例運行時,在源庫中寫入心跳SQL信息。

    • :不在源庫中寫入心跳SQL信息,DTS實例可能會顯示有延遲。

    • :在源庫中寫入心跳SQL信息,可能會影響源庫的物理備份和克隆等功能。

  8. 上述配置完成后,單擊頁面下方的下一步保存任務并預檢查。

    您可以將鼠標光標移動至下一步保存任務并預檢查按鈕上,然后單擊氣泡中的預覽OpenAPI參數,查看調用API接口配置該實例時的參數信息。

    說明
    • 在遷移任務正式啟動之前,會先進行預檢查。只有預檢查通過后,才能成功啟動遷移任務。

    • 如果預檢查失敗,請單擊失敗檢查項后的查看詳情,并根據提示修復后重新進行預檢查。

    • 如果預檢查產生警告:

      • 對于不可以忽略的檢查項,請單擊失敗檢查項后的查看詳情,并根據提示修復后重新進行預檢查。

      • 對于可以忽略無需修復的檢查項,您可以依次單擊點擊確認告警詳情、確認屏蔽、確定、重新進行預檢查,跳過告警檢查項重新進行預檢查。如果選擇屏蔽告警檢查項,可能會導致數據不一致等問題,給業務帶來風險。

  9. 預檢查通過率顯示為100%時,單擊下一步購買。

  10. 購買頁面,選擇數據遷移實例的鏈路規格,詳細說明請參見下表。

    類別

    參數

    說明

    信息配置

    資源組配置

    選擇實例所屬的資源組,默認為default resource group。更多信息,請參見什么是資源管理。

    鏈路規格

    DTS為您提供了不同性能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務場景進行選擇。更多信息,請參見數據遷移鏈路規格說明。

  11. 配置完成后,閱讀并選中《數據傳輸(按量付費)服務條款》

  12. 單擊購買并啟動,并在彈出的確認對話框,單擊確定

    您可在數據遷移界面查看具體進度。

映射信息

  1. 已選擇對象區域框中,將鼠標指針放置在目標Topic名(表級別)上。

  2. 單擊目標Topic名后出現的編輯。

  3. 在彈出的編輯表對話框中,配置映射信息。

    配置

    說明

    表名稱

    源表遷移到的目標Topic名稱,默認為源庫及目標庫配置階段在目標庫信息選擇的Topic。

    重要
    • 目標庫為阿里云消息隊列Kafka版實例時,設置的Topic名稱必須在目標Kafka實例中真實存在,否則將導致數據遷移失敗。

    • 若您修改了表名稱,數據將會被寫入到您填寫的Topic中。

    過濾條件

    詳情請參見設置過濾條件。

    設置新建Topic的Partition數量

    數據寫入到目標Topic時的分區數。

    Partition Key

    投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。

    說明

    取消選中全表同步后,才可以勾選Partition Key。

  4. 單擊確定。