日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

DataWorks快速入門

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大數據引擎,為數據倉庫、數據湖、湖倉一體等解決方案提供統一的全鏈路大數據開發治理平臺。本文以DataWorks的部分核心功能為例,指導您使用DataWorks接入數據并進行業務處理、周期調度以及數據可視化。

入門簡介

通過本快速入門,您可以快速完成以下操作。

  1. 數據同步:通過DataWorks的數據集成模塊,創建離線同步任務,將業務數據同步至大數據計算平臺(如MaxCompute數倉)。

  2. 數據清洗:在DataWorks的數據開發模塊中,對業務數據進行處理、分析和挖掘。

  3. 數據展示:在DataWorks的數據分析模塊中,將分析結果轉化為圖表,便于業務人員理解。

  4. 周期性調度:為數據同步和數據清洗流程配置周期性調度,使其定時執行。

image

前提條件

為確保本教程可以順利進行,推薦使用阿里云主賬號或具備AliyunDataWorksFullAccess權限的RAM用戶。具體操作,請參見準備阿里云賬號(主賬號)準備RAM用戶(子賬號)

說明

DataWorks提供了完善的權限管控機制,支持在產品級與模塊級對權限進行管控,如果您需要更精細的權限控制,請參見DataWorks權限體系功能概述

準備工作

  1. 創建工作空間并綁定資源組。

    本教程以華東2(上海)地域為例,介紹DataWorks快速入門,您需要登錄DataWorks管理控制臺,切換至華東2(上海)地域,查看該地域是否開通DataWorks。

    說明

    本教程以華東2(上海)為例,在實際使用中,請根據實際業務數據所在位置確定開通地域:

    • 如果您的業務數據位于阿里云的其他云服務,請選擇與其相同的地域。

    • 如果您的業務在本地,需要通過公網訪問,請選擇與您實際地理位置較近的地域,以降低訪問延遲。

    • 如果未開通,單擊0元組合購買,通過組合購買,一站式完成DataWorks開通、默認空間創建以及資源組綁定。

      新開通DataWorks步驟

      1. 配置組合購買頁相關參數。

        參數

        說明

        示例

        地域

        選擇需要開通DataWorks的地域。

        華東2(上海)

        DataWorks

        選擇需要購買的DataWorks版本。

        說明

        本教程以基礎版為例,所有版本均可體驗本教程所涉及的功能,您可以參考DataWorks各版本支持的功能詳情,根據實際業務需要,選擇合適的DataWorks版本。

        基礎版

        DataWorks資源組

        通過DataWorks進行數據集成、數據開發、數據調度等任務時,需要消耗計算資源,您需要配套購買資源組,以確保后續任務的順利運行。

        • 付費模式:按量付費

        • 資源組名稱:自定義

        • 專有網絡(VPC)交換機(V-Switch):選擇已有的VPC和交換機。

          說明

          如當前地域沒有可用的VPC和交換機,請單擊參數說明中對應的控制臺鏈接前往創建。VPC和交換機的更多信息,請參見什么是專有網絡

        • 服務關聯角色:根據頁面提示,創建服務關聯角色。

      2. 勾選服務協議后,單擊確認訂單并支付,完成后續支付。

        說明

        完成購買后,系統將自動創建工作空間和資源組,并將資源組綁定至工作空間。

      3. 你可以前往DataWorks工作空間列表,切換至華東2(上海)地域,查看已創建的工作空間。

        image

    • 如果已開通,則需要手動創建本次教程使用的工作空間、資源組及資源組綁定操作。

      手動創建工作空間、資源組及資源組綁定操作

      1. 創建工作空間。

        1. 單擊DataWorks管理控制臺左側導航欄的工作空間,進入工作空間列表頁面,然后單擊創建工作空間

        2. 在創建工作空間頁面,自定義工作空間名稱,然后單擊創建工作空間

      2. 創建資源組。

        1. 單擊DataWorks管理控制臺左側導航欄的資源組,進入資源組列表,然后單擊新建資源組

        2. DataWorks通用資源組(按量付費)頁面,配置如下參數。

          參數

          說明

          資源組名稱

          自定義。

          專有網絡(VPC)交換機(V-Switch)

          選擇已有的VPC和交換機,如當前地域沒有,請單擊參數說明中對應的控制臺鏈接前往創建。

          服務關聯角色

          根據頁面提示,創建DataWorks服務關聯角色

        3. 單擊立即購買,完成后續支付。

      3. 為工作空間綁定資源組。

        1. 單擊DataWorks管理控制臺左側導航欄的資源組,進入資源組列表頁面,找到已創建的資源組,單擊操作列的綁定工作空間

        2. 綁定工作空間頁面,找到已創建的DataWorks工作空間,單擊其操作列的綁定

  2. 為資源組綁定的VPC配置EIP。

    本教程使用的電商平臺公開測試業務數據需要通過公網獲取,而上一步創建的通用型資源組默認不具備公網訪問能力,需要為資源組綁定的VPC配置公網NAT網關,添加EIP,使其與公開數據網絡打通,從而獲取數據。

    配置步驟

    1. 登錄專有網絡-公網NAT網關控制臺,在頂部菜單欄切換至華東2(上海)地域。

    2. 單擊創建公網NAT網關。配置相關參數。

      參數

      取值

      所屬地域

      華東2(上海)。

      所屬專有網絡

      選擇資源組綁定的VPC和交換機。

      您可以前往DataWorks管理控制臺,切換地域后,在左側導航欄單擊資源組列表,找到已創建的資源組,然后單擊操作列的網絡設置,在數據調度 & 數據集成區域查看綁定專有網絡交換機。VPC和交換機的更多信息,請參見什么是專有網絡

      關聯交換機

      訪問模式

      VPC全通模式(SNAT)。

      彈性公網IP實例

      新購彈性公網IP。

      關聯角色創建

      首次創建NAT網關時,需要創建服務關聯角色,請單擊創建關聯角色

      說明

      上表中未說明的參數保持默認值即可。

    3. 單擊立即購買,勾選服務協議后,單擊立即開通,完成購買。

      image

操作步驟

本文以如下場景為例,指導您快速體驗DataWorks的相關功能:

假設某一電商平臺將商品信息、訂單信息存儲在MySQL數據庫中,需要定期對訂單數據進行分析,通過可視化的方式查看每日最暢銷商品類目排名表。

步驟一:數據同步

  1. 創建數據源。

    DataWorks通過創建數據源的方式,接入數據來源和數據去向,因此,本步驟需要分別創建MySQL和MaxCompute兩個數據源

    • MySQL數據源,用于連接數據來源(存儲業務數據的MySQL數據庫),為本教程提供原始業務數據。

      說明

      您無需準備本教程使用的原始業務數據,為方便測試和學習,DataWorks為您提供測試數據集,相關表數據已存儲在公網MySQL數據庫中,您只需創建MySQL數據源接入即可。

      創建MySQL數據源步驟

      1. 進入管理中心頁面。

        登錄DataWorks控制臺,切換至目標地域后,單擊左側導航欄的更多 > 管理中心,在下拉框中選擇對應工作空間后單擊進入管理中心

      2. 在左側導航欄單擊數據源 > 數據源列表,然后單擊新增數據源,選擇數據源類型為MySQL數據源。

      3. 配置MySQL數據源相關參數。

        說明
        • 表中未說明的參數保持默認值即可。

        • 首次新增數據源時,需要完成跨服務授權,請根據頁面提示,授權服務關聯角色AliyunDIDefaultRole

        參數

        描述

        數據源名稱

        本示例為MySQL_Source

        配置模式

        選擇連接串模式

        連接地址

        單擊新增地址

        • 主機地址IP:rm-bp1z69dodhh85z9qa.mysql.rds.aliyuncs.com

        • 端口號:3306

        重要

        本教程提供的數據僅作為阿里云大數據開發治理平臺 DataWorks數據應用實操使用,所有數據均為測試數據,并且僅支持在數據集成模塊讀取數據。

        數據庫名稱

        配置為retail_e_commerce

        用戶名

        輸入用戶名workshop

        密碼

        輸入密碼workshop#2017

      4. 連接配置區域,找到工作空間已綁定的資源組,單擊連通狀態列的測試連通性

        說明

        如果MySQL數據源連通性測試失敗,請檢查是否為資源組綁定的VPC配置EIP,MySQL數據源需要資源組具備公網訪問能力。

      5. 單擊完成創建

    • MaxCompute數據源,用于連接數據去向(MaxCompute數倉),將MaxCompute數據源綁定至數據開發后,能夠為本教程提供數據存儲和計算能力。

      • 如果您的項目空間中存在已添加的MaxCompute數據源,則無需進行此步驟

      • 如果您的項目空間中沒有添加MaxCompute數據源,在參考如下步驟創建。

        創建MaxCompute數據源步驟

        1. 管理中心左側導航欄單擊數據源 > 數據源列表,然后單擊新增數據源,選擇數據源類型為MaxCompute數據源。

        2. 配置MaxCompute數據源相關參數。

          說明

          表中未說明的參數保持默認值即可。

          參數

          描述

          數據源名稱

          本示例為MaxCompute_Source

          地域

          選擇MaxCompute數據源所在地域。

          MaxCompute項目名稱

          選擇創建MaxCompute項目

          計算資源付費類型

          選擇按量付費

          說明

          如果按量付費不可選,請單擊按量付費后的去開通,完成MaxCompute服務的開通。

          默認Quota

          下拉選擇默認已存在的Quota。

          默認訪問身份

          阿里云主賬號。

        3. 連接配置區域,找到工作空間已綁定的資源組,單擊連通狀態列的測試連通性

          說明

          MaxCompute項目名稱全局唯一,如測試連通性不通過,報錯提示為ErrorMessage:[ODPS-0420095: Access Denied - Authorization Failed [4002], You don't exist in project xxx.,是因為項目名稱已存在,請修改項目名稱后再試。

        4. 單擊完成創建

  2. 數據開發綁定MaxCompute數據源。

    需要先將MaxCompute數據源綁定至數據開發,后續才能在數據開發模塊中對MaxCompute的數據進行處理。

    1. 單擊左上角image圖標,在彈出頁面中單擊全部產品 > 數據開發與運維 > DataStudio(數據開發)

    2. 在左側導航欄單擊數據源image),找到已創建的MaxCompute數據源,單擊綁定

      說明

      如果您的數據開發模塊已綁定了MaxCompute數據源,則無需進行此步驟

      image

  3. 創建虛擬節點,用于統籌管理整個電商平臺銷售數據分析的業務流程。該節點為空跑任務,無須編輯代碼。

    在左側導航欄單擊image圖標,進入數據開發頁面,找到業務流程 > Workflow,然后右鍵Workflow,選擇新建節點 > 通用 > 虛擬節點,自定義節點名稱,本教程以Workshop為例。

  4. 創建離線同步任務。

    本教程使用的測試數據涉及兩張表(商品信息源表item_info和訂單信息源表trade_order),這兩張表存儲于MySQL數據源關聯的MySQL數據庫中,本步驟需要分別創建兩個離線同步節點(節點名稱以ods_item_infoods_trade_order為例),用于將item_info表和trade_order表同步至MaxCompute數據源關聯的MaxCompute數倉中,然后再進行后續數據開發。

    1. 創建ods_item_info離線同步節點

      1. 右鍵Workflow,選擇新建節點 > 數據集成 > 離線同步

      2. 新建節點頁面,設置名稱ods_item_info

      3. 配置數據來源為已創建的MySQL數據源,數據去向為已綁定至數據開發的MaxCompute數據源,中間的資源組選擇工作空間已綁定的資源組,然后測試連通性都為可連通后,單擊下一步

        image

      4. 配置數據來源數據去向的相關參數。

        說明

        表中未說明的參數保持默認值即可。

        配置區域

        參數

        ods_item_info離線同步節點取值

        數據來源

        item_info

        數據去向

        單擊一鍵生成目標表結構,在新建表窗口中,修改建表語句,將表名修改為ods_item_info,然后單擊新建表

        通道控制

        臟數據策略

        配置為不容忍臟數據

      5. 單擊離線同步任務配置窗口頂部的保存image),然后單擊帶參運行image)。

        重要

        在離線計算場景下,bizdate為業務交易發生的日期,也常被稱為業務日期(business date)。例如,今天統計前一天的營業額,此處的前一天,指交易發生的日期,也就是業務日期。帶參運行時,自定義參數取值保持默認(當前時間的前一天)即可。

        如果您在此時修改了bizdate取值,請在后續本文所有節點涉及帶參運行時,同步修改bizdate取值。

    2. 創建ods_trade_order離線同步節點

      1. 右鍵Workflow,選擇新建節點 > 數據集成 > 離線同步

      2. 新建節點頁面,設置名稱ods_trade_order

      3. 配置數據來源為已創建的MySQL數據源,數據去向為已綁定至數據開發的MaxCompute數據源,中間的資源組選擇工作空間已綁定的資源組,然后測試連通性都為可連通后,單擊下一步

      4. 配置數據來源數據去向的相關參數。

        說明

        表中未說明的參數保持默認值即可。

        配置區域

        參數

        ods_trade_order離線同步節點取值

        數據來源

        trade_order

        數據去向

        單擊一鍵生成目標表結構,在新建表窗口中,修改建表語句,將表名修改為ods_trade_order,然后單擊新建表

        通道控制

        臟數據策略

        配置為不容忍臟數據

      5. 單擊離線同步任務配置窗口頂部的保存image),然后單擊帶參運行image)。

步驟二:數據清洗

數據已從MySQL同步至MaxCompute后,獲得兩張數據表(商品信息表ods_item_info和訂單信息表ods_trade_order),您可以在DataWorks的數據開發模塊對表中數據進行清洗、處理和分析,從而獲取每日最暢銷商品類目排名表。

說明
  • 運行ODPS節點時,會展示費用預估,由于每一個ODPS節點配置的SQL中同時包括CREATEINSERT語句,INSERT時,表還未創建,因此可能提示預估費用失敗,請忽略此報錯,直接運行即可。

  • DataWorks提供調度參數,可實現代碼動態入參,您可在SQL代碼中通過${變量名}的方式定義代碼中的變量,并在調度配置 > 調度參數處,為該變量賦值。調度參數支持的格式,詳情請參見調度參數支持的格式。本示例SQL中使用了調度參數${bizdate},表示業務日期為前一天。

  1. 創建dim_item_info節點。

    基于ods_item_info表,處理商品維度數據,產出商品基礎信息維度表dim_item_info

    操作步驟

    1. 右鍵Workflow,選擇新建節點 > MaxCompute > ODPS SQL,在新建節點頁面,設置名稱dim_item_info后,單擊確認,配置如下SQL。

      CREATE TABLE IF NOT EXISTS dim_item_info (
          gmt_modified                   STRING COMMENT '商品最后修改日期',
          gmt_create                     STRING COMMENT '商品創建時間',
          item_id                        BIGINT COMMENT '商品數字ID',
          title                          STRING COMMENT '商品標題',
          sub_title                      STRING COMMENT '商品子標題',
          pict_url                       STRING COMMENT '主圖URL',
          desc_path                      STRING COMMENT '商品描述的路徑',
          item_status                    BIGINT COMMENT '商品狀態1:確認通過0:未確認通過',
          last_online_time               DATETIME COMMENT '最近一次開始銷售時間,商品上架時間',
          last_offline_time              DATETIME COMMENT '銷售結束時間,表示一個銷售周期的結束,僅作用于拍賣商品',
          duration                       BIGINT COMMENT '有效期,銷售周期,只有兩個值,7天或14天',
          reserve_price                  DOUBLE COMMENT '當前價格',
          secure_trade_ordinary_post_fee DOUBLE COMMENT '平郵費用',
          secure_trade_fast_post_fee     DOUBLE COMMENT '快遞費用',
          secure_trade_ems_post_fee      DOUBLE COMMENT 'EMS郵費',
          last_online_quantity           BIGINT COMMENT '商品最近一次上架時的庫存數量',
          features                       STRING COMMENT '商品特征',
          cate_id                        BIGINT COMMENT '商品葉子類目ID',
          cate_name                      STRING COMMENT '商品葉子類目名稱',
          commodity_id                   BIGINT COMMENT '品類ID',
          commodity_name                 STRING COMMENT '品類名稱',
          is_virtual                     STRING COMMENT '是否虛擬商品',
          shop_id                        BIGINT COMMENT '商家ID',
          shop_nick                      STRING COMMENT '商家NICK',
          is_deleted                     BIGINT COMMENT '類目是否刪除'
      )
      COMMENT '商品基礎信息維度表'
      PARTITIONED BY (pt STRING COMMENT '業務日期, yyyymmdd')
      LIFECYCLE 365;
      
      
      -- 插入數據到 dim_item_info 表
      INSERT OVERWRITE TABLE dim_item_info PARTITION(pt='${bizdate}')
      SELECT
          gmt_create,
          gmt_modified,
          item_id,
          title,
          sub_title,
          pict_url,
          desc_path,
          item_status,
          last_online_time,
          last_offline_time,
          duration,
          cast(reserve_price as DOUBLE),
          cast(secure_trade_ordinary_post_fee as DOUBLE),
          cast(secure_trade_fast_post_fee as DOUBLE),
          cast(secure_trade_ems_post_fee as DOUBLE),
          last_online_quantity,
          features,
          cate_id,
          cate_name,
          commodity_id,
          commodity_name,
          is_virtual,
          shop_id,
          shop_nick,
          is_deleted
      FROM ods_item_info
      WHERE pt = '${bizdate}';
    2. 單擊ODPS SQL配置窗口頂部的保存image),然后單擊帶參運行image)。

  2. 創建dwd_trade_order節點。

    基于ods_trade_order表,對訂單的詳細交易數據進行初步清洗、轉換和業務邏輯處理,產出交易下單明細事實表dwd_trade_order

    操作步驟

    1. 右鍵Workflow,選擇新建節點 > MaxCompute > ODPS SQL,在新建節點頁面,設置名稱dwd_trade_order后,單擊確認,配置如下SQL。

      CREATE TABLE IF NOT EXISTS dwd_trade_order (
          id               BIGINT COMMENT '主鍵,去重后的最新id',
          gmt_create       DATETIME COMMENT '創建時間',
          gmt_modified     DATETIME COMMENT '修改時間',
          sub_order_id     BIGINT COMMENT '子訂單ID',
          parent_order_id  BIGINT COMMENT '父訂單ID',
          buyer_id         BIGINT COMMENT '買家數字id',
          buyer_nick       STRING COMMENT '買家昵稱,處理空值',
          item_id          BIGINT COMMENT '商品數字id',
          item_price       DECIMAL(38,18) COMMENT '商品價格,單位分',
          buy_amount       BIGINT COMMENT '購買數量',
          biz_type         BIGINT COMMENT '交易類型',
          memo             STRING COMMENT '備注,處理空值',
          pay_status       BIGINT COMMENT '支付狀態',
          logistics_status BIGINT COMMENT '物流狀態',
          status           BIGINT COMMENT '狀態',
          seller_memo      STRING COMMENT '賣家的給交易的備注',
          buyer_memo       STRING COMMENT '買家給交易的備注',
          clean_ip         STRING COMMENT '清洗后的買家IP,過濾無效格式',
          end_time         DATETIME COMMENT '交易結束時間',
          pay_time         DATETIME COMMENT '付款的時間',
          is_sub           BIGINT COMMENT '是否是子訂單1表示子訂單',
          is_parent        BIGINT COMMENT '是否是父訂單1表示父訂單',
          shop_id          BIGINT COMMENT '商家id',
          total_fee        DECIMAL(38,18) COMMENT '去除折扣和調整后的子訂單費用',
          is_large_order_flag BOOLEAN COMMENT '是否為大額訂單標志'
      )
      COMMENT '交易下單明細事實表,包含初步清洗和業務邏輯處理'
      PARTITIONED BY (pt STRING COMMENT '業務日期, yyyymmdd')
      LIFECYCLE 365; -- 數據生命周期設置為365天
      
      
      INSERT OVERWRITE TABLE dwd_trade_order PARTITION(pt='${bizdate}')
      SELECT
          MAX(id) AS id, -- 假設使用最新的id作為去重標準
          gmt_create,
          gmt_modified,
          sub_order_id,
          parent_order_id,
          buyer_id,
          COALESCE(buyer_nick, '') AS buyer_nick, -- 處理buyer_nick為空的情況
          item_id,
          item_price,
          buy_amount,
          biz_type,
          COALESCE(memo, '') AS memo, -- 處理memo為空的情況
          pay_status,
          logistics_status,
          status,
          seller_memo,
          buyer_memo,
          CASE 
              WHEN ip LIKE '__.__.__.__' THEN NULL -- 過濾無效IP格式
              ELSE ip 
          END AS clean_ip,
          end_time,
          pay_time,
          is_sub,
          is_parent,
          shop_id,
          total_fee,
          CASE 
              WHEN total_fee >= 10000 THEN TRUE -- 假設大于10000分的訂單為大額訂單
              ELSE FALSE 
          END AS is_large_order_flag -- 添加業務邏輯標志
      FROM (
          SELECT
              *,
              ROW_NUMBER() OVER(PARTITION BY buyer_id, item_id, gmt_create ORDER BY id DESC) AS rn -- 用于去重的行號
          FROM ods_trade_order
          WHERE pt = '${bizdate}'
      ) AS sub_query
      WHERE rn = 1 -- 僅保留每個去重組的第一條記錄
      GROUP BY 
          gmt_create,
          gmt_modified,
          sub_order_id,
          parent_order_id,
          buyer_id,
          buyer_nick,
          item_id,
          item_price,
          buy_amount,
          biz_type,
          memo,
          pay_status,
          logistics_status,
          status,
          seller_memo,
          buyer_memo,
          clean_ip,
          end_time,
          pay_time,
          is_sub,
          is_parent,
          shop_id,
          total_fee,
          is_large_order_flag;
    2. 單擊ODPS SQL配置窗口頂部的保存image),然后單擊帶參運行image)。

  3. 創建dws_daily_category_sales節點。

    基于dwd_trade_order表和dim_item_info表,對DWD層經過清洗和標準化的明細數據進行匯總,產出每日商品類目銷售匯總表dws_daily_category_sales

    操作步驟

    1. 右鍵Workflow,選擇新建節點 > MaxCompute > ODPS SQL,在新建節點頁面,設置名稱dws_daily_category_sales后,單擊確認,配置如下SQL。

      CREATE TABLE IF NOT EXISTS dws_daily_category_sales (
          cate_id             BIGINT COMMENT '商品葉子類目ID',
          cate_name           STRING COMMENT '商品葉子類目名稱',
          total_sales_amount  DECIMAL(38,18) COMMENT '商品類目總銷售額,單位分',
          order_count         BIGINT COMMENT '訂單數量'
      )
      COMMENT '每日商品類目銷售匯總表'
      PARTITIONED BY (pt STRING COMMENT '業務日期, yyyymmdd')
      LIFECYCLE 365;
      
      
      INSERT OVERWRITE TABLE dws_daily_category_sales PARTITION(pt='${bizdate}')
      SELECT
          i.cate_id,
          i.cate_name,
          SUM(t.total_fee) AS total_sales_amount,
          COUNT(DISTINCT t.id) AS order_count
      FROM dwd_trade_order t
      JOIN dim_item_info i ON t.item_id = i.item_id AND t.pt = i.pt
      WHERE t.pt = '${bizdate}'
      GROUP BY t.pt, i.cate_id, i.cate_name;
    2. 單擊ODPS SQL配置窗口頂部的保存image),然后單擊帶參運行image)。

  4. 創建ads_top_selling_categories節點。

    基于dws_daily_category_sales表,產出每日最暢銷商品類目排名表ads_top_selling_categories

    操作步驟

    1. 右鍵Workflow,選擇新建節點 > MaxCompute > ODPS SQL,在新建節點頁面,設置名稱ads_top_selling_categories后,單擊確認,配置如下SQL。

      CREATE TABLE IF NOT EXISTS ads_top_selling_categories (
          rank                BIGINT COMMENT '銷量排名',
          cate_id             BIGINT COMMENT '商品葉子類目ID',
          cate_name           STRING COMMENT '商品葉子類目名稱',
          total_sales_amount  DECIMAL(38,18) COMMENT '商品類目總銷售額,單位分',
          order_count         BIGINT COMMENT '訂單數量'
      )
      COMMENT '每日最暢銷商品類目排名表'
      PARTITIONED BY (pt STRING COMMENT '業務日期, yyyymmdd');
      
      
      INSERT OVERWRITE TABLE ads_top_selling_categories PARTITION(pt='${bizdate}')
      SELECT
          rank,
          cate_id,
          cate_name,
          total_sales_amount,
          order_count
      FROM (
          SELECT
              DENSE_RANK() OVER(ORDER BY total_sales_amount DESC) AS rank,
              cate_id,
              cate_name,
              total_sales_amount,
              order_count
          FROM (
              SELECT
                  cate_id,
                  cate_name,
                  SUM(total_sales_amount) AS total_sales_amount,
                  SUM(order_count) AS order_count
              FROM dws_daily_category_sales
              WHERE pt = '${bizdate}'
              GROUP BY cate_id, cate_name
          ) agg_sub
      ) agg_outer
      WHERE rank <= 10;
    2. 單擊ODPS SQL配置窗口頂部的保存image),然后單擊帶參運行image)。

步驟三:數據展示

您已經將從MySQL中獲取的原始測試數據,經過數據開發處理,匯總于表ads_top_selling_categories中,現在可查詢表數據,查看數據分析后的結果。

  1. 單擊左上角image圖標,在彈出頁面中單擊全部產品 > 數據分析 > SQL查詢

  2. 在我的文件后單擊image > 新建文件,自定義文件名后單擊確定

    image

  3. 在SQL查詢頁面,配置如下SQL。

    SELECT * FROM ads_top_selling_categories WHERE pt=${bizdate};
  4. 單擊頂部的運行(image),根據頁面提示,在右上角選擇MaxCompute數據源后單擊確定,然后在成本預估頁面,單擊運行

  5. 在查詢結果中單擊image,查看可視化圖表結果,您可以單擊圖表右上角的image自定義圖表樣式。自定義圖表樣式的更多信息,請參見增強分析(卡片和報告)

    image

  6. 您也可以單擊圖表右上角保存,將圖表保存為卡片,然后在左側導航欄單擊卡片image)查看。

    image

步驟四:周期性調度

通過完成前文操作步驟,您已經獲取了前一天各類商品的銷售數據,但是,如果需要每天獲取最新的銷售數據,則可以為數據開發中各任務節點配置周期任務,使其周期性定時執行。

說明

為簡化操作,快速入門教程以可視化方式為業務流程配置調度,DataWorks還支持手動精細化配置,各任務節點支持根據SQL自動解析上下游依賴,調度配置的更多信息,請參見任務調度配置

  1. 單擊左上角image圖標,在彈出頁面中單擊全部產品 > 數據開發與運維 > DataStudio(數據開發)

  2. 右鍵單擊業務流程Workflow,單擊看板進入畫布,在畫布中移動各節點位置并按下圖拖拽出各節點的上下游依賴關系。

    image

  3. 單擊右側流程參數,配置參數名稱bizdate參數值或表達式$bizdate,單擊保存

    image

  4. 雙擊虛擬節點(Workshop),配置如下周期調度參數后,單擊頂部的保存image)。

    說明

    其他參數保持默認即可。

    image

  5. 切換至Workflow業務流程頁簽,單擊頂部的運行確認運行業務流程,參數bizdate填寫為前一天(例如今天為20240731,則此處填寫為20240730),單擊確定測試所有流程是否均能成功運行。

    image

  6. 所有節點均能成功運行后,點擊頂部的提交,將流程中所有節點提交至運維中心。

    image

  7. 單擊左上角image圖標,在彈出頁面單擊全部產品 > 數據開發與運維 > 運維中心(工作流)

  8. 周期任務運維 > 周期任務中即可看到已創建的周期任務。

    說明

    如需展示如下圖的所有上下游依賴節點,請右鍵單擊Workshop節點,選擇展開子節點 > 四層

    image

下一步

附錄:資源釋放與清理

如果您需要釋放本次教程所創建的資源,具體操作步驟如下:

  1. 停止周期任務。

    1. 進入運維中心頁面。

      登錄DataWorks控制臺,切換至目標地域后,單擊左側導航欄的數據開發與治理 > 運維中心,在下拉框中選擇對應工作空間后單擊進入運維中心

    2. 周期任務運維 > 周期任務中,勾選所有之前創建的周期任務,然后在底部單擊操作 > 終止運行

  2. 刪除數據開發節點并解綁MaxCompute數據源。

    1. 進入數據開發頁面。

      登錄DataWorks控制臺,切換至目標地域后,單擊左側導航欄的數據開發與治理 > 數據開發,在下拉框中選擇對應工作空間后單擊進入數據開發

    2. 業務流程 > Workflow中,找到已創建的離線同步節點和ODPS SQL節點,右鍵選擇刪除

    3. 在左側導航欄,單擊數據源,找到已綁定的MaxCompute數據源,單擊解綁。在確認窗口中勾選選項后單擊解綁

  3. 刪除數據源。

    1. 進入管理中心頁面。

      登錄DataWorks控制臺,切換至目標地域后,單擊左側導航欄的更多 > 管理中心,在下拉框中選擇對應工作空間后單擊進入管理中心

    2. 在左側導航欄單擊數據源 > 數據源列表,找到已創建的MySQL數據源和MaxCompute數據源,單擊操作列的刪除。在刪除窗口中單擊繼續

  4. 刪除MaxCompute項目。

    登錄MaxCompute管理控制臺,找到已創建的MaxCompute項目,單擊操作列的刪除,在確認窗口中勾選選項后單擊確定

  5. 刪除公網NAT網關并釋放彈性公網IP。

    1. 登錄專有網絡-公網NAT網關控制臺,在頂部菜單欄切換至華東2(上海)地域。

    2. 找到已創建的公網NAT網關,單擊操作列的image > 刪除,在確認窗口中,勾選強制刪除,然后單擊確定

    3. 在左側導航欄單擊公網訪問 > 彈性公網IP,找到已創建的彈性公網IP,單擊操作列中image > 實例管理 > 釋放,在確認窗口中單擊確定