本文中含有需要您注意的重要提示信息,忽略該信息可能對您的業務造成影響,請務必仔細閱讀。
本文介紹如何使用數據傳輸服務DTS(Data Transmission Service),將RDS MySQL遷移至阿里云消息隊列Kafka版。
前提條件
已創建源實例RDS MySQL和目標實例阿里云消息隊列Kafka版。
說明源實例RDS MySQL的創建方式,請參見創建RDS MySQL實例。
源庫和目標庫支持的版本,請參見遷移方案概覽。
目標實例阿里云消息隊列Kafka版的存儲空間須大于源實例RDS MySQL占用的存儲空間。
目標實例阿里云消息隊列Kafka版中已創建用于接收遷移數據的Topic,詳情請參見步驟一:創建Topic。
注意事項
DTS不會將源數據庫中的外鍵遷移到目標數據庫,因此源數據庫的級聯、刪除等操作不會遷移到目標數據庫。
類型 | 說明 |
源庫限制 |
|
其他限制 |
|
特殊情況 |
|
費用說明
遷移類型 | 鏈路配置費用 | 公網流量費用 |
結構遷移和全量數據遷移 | 不收費。 | 通過公網將數據遷移出阿里云時將收費,詳情請參見計費概述。 |
增量數據遷移 | 收費,詳情請參見計費概述。 |
遷移類型說明
庫表結構遷移
DTS將源庫中遷移對象的結構定義遷移到目標庫。
全量遷移
DTS將源庫中遷移對象的存量數據,全部遷移到目標庫中。
增量遷移
DTS在全量遷移的基礎上,將源庫的增量更新數據遷移到目標庫中。通過增量數據遷移可以實現在自建應用不停機的情況下,平滑地完成數據遷移。
支持增量遷移的SQL操作
操作類型 | SQL操作語句 |
DML | INSERT、UPDATE、DELETE |
DDL |
|
數據庫賬號的權限要求
數據庫 | 庫表結構遷移 | 全量遷移 | 增量遷移 |
源RDS MySQL實例 | 待遷移對象的讀權限。 |
操作步驟
進入目標地域的遷移任務列表頁面(二選一)。
通過DTS控制臺進入
登錄數據傳輸服務DTS控制臺。
在左側導航欄,單擊數據遷移。
在頁面左上角,選擇遷移實例所屬地域。
通過DMS控制臺進入
說明實際操作可能會因DMS的模式和布局不同,而有所差異。更多信息。請參見極簡模式控制臺和自定義DMS界面布局與樣式。
登錄DMS數據管理服務。
在頂部菜單欄中,選擇
。在遷移任務右側,選擇遷移實例所屬地域。
單擊創建任務,進入任務配置頁面。
可選:在頁面右上角,單擊試用新版配置頁。
說明若您已進入新版配置頁(頁面右上角的按鈕為返回舊版配置頁),則無需執行此操作。
新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。
配置源庫及目標庫信息。
警告選擇源和目標實例后,建議您仔細閱讀頁面上方顯示的使用限制,否則可能會導致任務失敗或數據不一致。
類別
配置
說明
無
任務名稱
DTS會自動生成一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便于后續識別。
源庫信息
選擇DMS數據庫實例
如使用已有實例,下方數據庫信息將自動填入,您無需重復輸入。
如不使用已有實例,您需要輸入下方的數據庫信息。
數據庫類型
選擇MySQL。
接入方式
選擇云實例。
實例地區
選擇源RDS MySQL實例所屬地域。
是否跨阿里云賬號
本場景為同一阿里云賬號間遷移,選擇不跨賬號。
RDS實例ID
選擇源RDS MySQL實例ID。
數據庫賬號
填入源RDS MySQL實例,需要具備待遷移對象的讀權限。
數據庫密碼
填入該數據庫賬號對應的密碼。
連接方式
根據需求選擇非加密連接或SSL安全連接。如果設置為SSL安全連接,您需要提前開啟RDS MySQL實例的SSL加密功能,詳情請參見使用云端證書快速開啟SSL鏈路加密。
目標庫信息
選擇DMS數據庫實例
您可以按實際需求,選擇是否使用已有實例。
如使用已有實例,下方數據庫信息將自動填入,您無需重復輸入。
如不使用已有實例,您需要輸入下方的數據庫信息。
數據庫類型
選擇Kafka。
接入方式
選擇云實例。
實例地區
選擇目標阿里云消息隊列Kafka版實例所屬地域。
Kafka實例ID
選擇目標阿里云消息隊列Kafka版實例的ID。
連接方式
根據業務及安全需求,選擇非加密連接或SCRAM-SHA-256。
Topic
在下拉框中選擇具體的Topic。
存儲DDL的Topic
在下拉框中選擇具體的Topic,用于存儲DDL信息。如果未指定,DDL信息默認存儲在Topic選擇的Topic中。
是否使用Kafka Schema Registry
Kafka Schema Registry是元數據提供服務層,提供了一個RESTful接口,用于存儲和檢索Avro Schema。
否:不使用Kafka Schema Registry。
是:使用Kafka Schema Registry。您需要輸入Avro Schema在Kafka Schema Registry注冊的URL或IP。
配置完成后,在頁面下方單擊測試連接以進行下一步。
說明請確保DTS服務的IP地址段能夠被自動或手動添加至源庫和目標庫的安全設置中,以允許DTS服務器的訪問。更多信息,請參見添加DTS服務器的IP地址段。
若源庫或目標庫為自建數據庫(接入方式不是云實例),則還需要在彈出的DTS服務器訪問授權對話框單擊測試連接。
配置任務對象及高級配置。
配置
說明
遷移類型
如果只需要進行全量遷移,請同時選中庫表結構遷移和全量遷移。
如果需要進行不停機遷移,請同時選中庫表結構遷移、全量遷移和增量遷移。
說明目標庫為阿里云消息隊列Kafka版實例時,不支持庫表結構遷移。
如果未選擇增量遷移,為保障數據一致性,數據遷移期間請勿在源實例中寫入新的數據。
目標已存在表的處理模式
預檢查并報錯攔截:檢查目標數據庫中是否有同名的表。如果目標數據庫中沒有同名的表,則通過該檢查項目;如果目標數據庫中有同名的表,則在預檢查階段提示錯誤,數據遷移任務不會被啟動。
說明如果目標庫中同名的表不方便刪除或重命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射。
忽略報錯并繼續執行:跳過目標數據庫中是否有同名表的檢查項。
警告選擇為忽略報錯并繼續執行,可能導致數據不一致,給業務帶來風險,例如:
表結構一致的情況下,在目標庫遇到與源庫主鍵的值相同的記錄:
全量期間,DTS會保留目標集群中的該條記錄,即源庫中的該條記錄不會遷移至目標數據庫中。
增量期間,DTS不會保留目標集群中的該條記錄,即源庫中的該條記錄會覆蓋至目標數據庫中。
表結構不一致的情況下,可能導致只能遷移部分列的數據或遷移失敗,請謹慎操作。
投遞到Kafka的數據格式
根據需求選擇遷移到Kafka實例中的數據存儲格式。
如果您選擇DTS Avro,根據DTS Avro的schema定義進行數據解析,schema定義詳情請參見DTS Avro的schema定義。
如果您選擇Canal Json,Canal Json的參數說明和示例請參見Canal Json說明。
Kafka壓縮格式
根據需求選擇Kafka壓縮消息的壓縮格式。
LZ4(默認):壓縮率較低,壓縮速率較高。
GZIP:壓縮率較高,壓縮速率較低。
說明對CPU的消耗較高。
Snappy:壓縮率中等,壓縮速率中等。
投遞到Kafka Partition策略
根據業務需求選擇遷移的策略,詳細介紹請參見Kafka Partition遷移策略說明。
目標庫對象名稱大小寫策略
您可以配置目標實例中遷移對象的庫名、表名和列名的英文大小寫策略。默認情況下選擇DTS默認策略,您也可以選擇與源庫、目標庫默認策略保持一致。更多信息,請參見目標庫對象名稱大小寫策略。
源庫對象
在源庫對象框中單擊待遷移的對象,然后單擊將其移動到已選擇對象框。
說明遷移對象選擇粒度為表。
已選擇對象
本示例無需額外配置。您可以使用映射功能,設置源表在目標Kafka實例中的Topic名稱、Topic的Partition數量、Partition Key等信息。更多信息,請參見映射信息。
說明如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。
如需選擇增量遷移的DDL或DML操作,請在已選擇對象中右擊待遷移對象,并在彈出的對話框中選擇所需增量遷移的DML和DDL操作。支持的操作請參見支持增量遷移的SQL操作。
單擊下一步高級配置,進行高級配置。
配置
說明
選擇調度該任務的專屬集群
DTS默認將任務調度到共享集群上,您無需選擇。若您希望任務更加穩定,可以購買專屬集群來運行DTS遷移任務。更多信息,請參見什么是DTS專屬集群。
設置告警
是否設置告警,當遷移失敗或延遲超過閾值后,將通知告警聯系人。
不設置:不設置告警。
設置:設置告警,您還需要設置告警閾值和告警聯系人。更多信息,請參見在配置任務過程中配置監控告警。
源庫、目標庫無法連接后的重試時間
在遷移任務啟動后,若源庫或目標庫連接失敗則DTS會報錯,并會立即進行持續的重試連接,默認重試720分鐘,您也可以在取值范圍(10~1440分鐘)內自定義重試時間,建議設置30分鐘以上。如果DTS在設置的時間內重新連接上源、目標庫,遷移任務將自動恢復。否則,遷移任務將失敗。
說明針對同源或者同目標的多個DTS實例,網絡重試時間以后創建任務的設置為準。
由于連接重試期間,DTS將收取任務運行費用,建議您根據業務需要自定義重試時間,或者在源和目標庫實例釋放后盡快釋放DTS實例。
源庫、目標庫出現其他問題后的重試時間
在遷移任務啟動后,若源庫或目標庫出現非連接性的其他問題(如DDL或DML執行異常),則DTS會報錯并會立即進行持續的重試操作,默認持續重試時間為10分鐘,您也可以在取值范圍(1~1440分鐘)內自定義重試時間,建議設置10分鐘以上。如果DTS在設置的重試時間內相關操作執行成功,遷移任務將自動恢復。否則,遷移任務將會失敗。
重要源庫、目標庫出現其他問題后的重試時間的值需要小于源庫、目標庫無法連接后的重試時間的值。
是否限制全量遷移速率
在全量遷移階段,DTS將占用源庫和目標庫一定的讀寫資源,可能會導致數據庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設置(設置每秒查詢源庫的速率QPS、每秒全量遷移的行數RPS和每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。
說明僅當遷移類型選擇了全量遷移時才可以配置。
是否限制增量遷移速率
您也可以根據實際情況,選擇是否對增量遷移任務進行限速設置(設置每秒增量遷移的行數RPS和每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。
說明僅當遷移類型選擇了增量遷移時才可以配置。
環境標簽
您可以根據實際情況,選擇用于標識實例的環境標簽。本示例無需選擇。
配置ETL功能
選擇是否配置ETL功能。關于ETL的更多信息,請參見什么是ETL。
是:配置ETL功能,并在文本框中填寫數據處理語句,詳情請參見在DTS遷移或同步任務中配置ETL。
否:不配置ETL功能。
是否去除正反向任務的心跳表sql
根據業務需求選擇是否在DTS實例運行時,在源庫中寫入心跳SQL信息。
是:不在源庫中寫入心跳SQL信息,DTS實例可能會顯示有延遲。
否:在源庫中寫入心跳SQL信息,可能會影響源庫的物理備份和克隆等功能。
上述配置完成后,單擊頁面下方的下一步保存任務并預檢查。
您可以將鼠標光標移動至下一步保存任務并預檢查按鈕上,然后單擊氣泡中的預覽OpenAPI參數,查看調用API接口配置該實例時的參數信息。
說明在遷移任務正式啟動之前,會先進行預檢查。只有預檢查通過后,才能成功啟動遷移任務。
如果預檢查失敗,請單擊失敗檢查項后的查看詳情,并根據提示修復后重新進行預檢查。
如果預檢查產生警告:
對于不可以忽略的檢查項,請單擊失敗檢查項后的查看詳情,并根據提示修復后重新進行預檢查。
對于可以忽略無需修復的檢查項,您可以依次單擊點擊確認告警詳情、確認屏蔽、確定、重新進行預檢查,跳過告警檢查項重新進行預檢查。如果選擇屏蔽告警檢查項,可能會導致數據不一致等問題,給業務帶來風險。
預檢查通過率顯示為100%時,單擊下一步購買。
在購買頁面,選擇數據遷移實例的鏈路規格,詳細說明請參見下表。
類別
參數
說明
信息配置
資源組配置
選擇實例所屬的資源組,默認為default resource group。更多信息,請參見什么是資源管理。
鏈路規格
DTS為您提供了不同性能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務場景進行選擇。更多信息,請參見數據遷移鏈路規格說明。
配置完成后,閱讀并選中《數據傳輸(按量付費)服務條款》。
單擊購買并啟動,并在彈出的確認對話框,單擊確定。
您可在數據遷移界面查看具體進度。
映射信息
在已選擇對象區域框中,將鼠標指針放置在目標Topic名(表級別)上。
單擊目標Topic名后出現的編輯。
在彈出的編輯表對話框中,配置映射信息。
配置
說明
表名稱
源表遷移到的目標Topic名稱,默認為源庫及目標庫配置階段在目標庫信息選擇的Topic。
重要目標庫為阿里云消息隊列Kafka版實例時,設置的Topic名稱必須在目標Kafka實例中真實存在,否則將導致數據遷移失敗。
若您修改了表名稱,數據將會被寫入到您填寫的Topic中。
過濾條件
詳情請參見設置過濾條件。
設置新建Topic的Partition數量
數據寫入到目標Topic時的分區數。
Partition Key
當投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。
說明取消選中全表同步后,才可以勾選Partition Key。
單擊確定。