數據管理DMS任務編排功能的AnalyticDB MySQL Spark節點,支持周期性、有順序地調度Spark作業。本文介紹如何配置AnalyticDB MySQL Spark節點。
背景信息
使用常規的Spark開發編輯器或命令行等工具進行AnalyticDB MySQL Spark作業開發時,僅可單次調度Spark作業,且作業間無依賴關系和執行順序。
為解決以上痛點,您可以使用DMS的AnalyticDB MySQL Spark節點進行Spark作業開發、調度。
應用場景
機器學習
圖像處理
推薦系統
報表分析
數據挖掘
前提條件
購買了AnalyticDB MySQL湖倉版(3.0)集群。購買的具體操作,請參見創建湖倉版集群。
說明集群所在地域與AnalyticDB for MySQL Spark節點支持的任一地域一致。目前支持華北3(張家口)、華東1(杭州)、華東2(上海)、華南1(深圳)、華北2(北京)、中國(香港)、美國(硅谷)、美國(弗吉尼亞)、新加坡地域。
在已購買集群中新建了對應類型的資源組。具體操作,請參見新建資源組。
說明若您需要使用AnalyticDB MySQL Spark節點的Warehouse數倉能力,則需要滿足如下條件:
集群在華東2(上海)地域。
資源組的任務類型為Interactive。
創建資源組時引擎選擇Spark。
若RAM用戶(子賬號)使用AnalyticDB for MySQL Spark節點,則需要阿里云賬號(主賬號)授予
adb:SubmitSparkApp
、adb:DescribeDBClusters
、adb:DescribeDBResourceGroup
權限。授權的具體操作,請參見為RAM用戶授權。
操作步驟
- 登錄數據管理DMS 5.0。
單擊控制臺左上角的圖標,選擇
。說明若您使用的是非極簡模式的控制臺,在頂部菜單欄中,選擇
。單擊目標任務流名稱,進入任務流詳情頁面。
說明如果您需要新增任務流,請參見新增任務流。
在畫布左側的任務類型列表中,拖拽ADB Spark節點到右側畫布的空白區域。
單擊節點配置頁右側的變量設置頁簽,配置變量。
雙擊ADB Spark節點,配置如下信息:
類別
配置項
說明
基礎配置
地域
選擇目標AnalyticDB for MySQL實例所在地域。目前僅支持華北3(張家口)、華東1(杭州)、華東2(上海)。
ADB實例
選擇已有實例。若未創建實例,請單擊去創建。創建的具體操作,請參見創建湖倉版(3.0)集群。
ADB資源組
選擇目標資源組,若下拉框中未出現已創建的資源組,請單擊刷新。創建資源組的具體操作,請參見新建資源組。
任務類型
根據作業配置內容選擇Batch或SQL任務類型。
說明當集群的資源組為Interactive類型,且引擎為Spark時,任務類型僅支持選擇SQL。
任務類型說明如下:
Batch:選擇Batch后,可在作業配置區域輸入描述Spark作業的JSON。
SQL:選擇SQL后,可在作業配置區域輸入SQL語句。
任務名稱
任務在Spark中的名稱。若未定義,則默認定義為任務節點的名稱(ADB Spark節點)。
作業配置
-
根據您選擇的任務類型,在該區域編寫JSON或SQL語句。配置Batch和SQL類型作業的具體操作,請參見Spark離線應用開發和Spark SQL應用開發。
完成上述配置后,單擊保存。
單擊試運行、指定時間運行或指定時間范圍運行。
如果執行日志的最后一行出現
status SUCCEEDED
,表明任務運行成功。如果執行日志的最后一行出現
status FAILED
,表明任務運行失敗。說明如果運行失敗,在執行日志中查看執行失敗的節點和原因,修改配置后重新嘗試。
配置調度周期。
在任務類型列表頁的下方,單擊任務流信息頁簽。
在調度配置區域,打開開啟調度開關,配置調度。具體配置,請參見任務編排概述。
可選:發布或下線任務流。具體操作,請參見發布或下線任務流。
其他操作
您可在任務執行完成后,單擊頁面右上方的前往運維,進入運維中心查看任務流的詳細信息(包含創建時間、創建人或責任人、是否發布等信息)以及任務的執行狀態(成功、失敗、執行中)、起止時間,同時您也可以在該頁面進行暫停、重跑等運維操作。