日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

通過SLS完成日志數據入湖OSS

數據湖支持在低存儲成本的情況下,更好地滿足數據長期存儲、查詢、分析、讀取等需求。本文介紹通過日志服務SLS完成日志數據入湖的操作方式。

前提條件

已在日志服務Project所在的地域創建Bucket。具體操作,請參見控制臺創建存儲空間

背景信息

數據湖是一個集中式存儲庫,允許您以任意規模存儲所有結構化、半結構化以及非結構化數據。這些數據包括來源于關系型數據庫中的結構化數據(行和列)、半結構化數據(例如CSV、日志、XML、JSON等)、非結構化數據(例如email、文檔、PDF等)和二進制數據(例如圖像、音頻、視頻等)。

日志服務集成了數據投遞到OSS的功能,以Serverless的方式助力日志數據入湖,支持豐富的日志數據源,一站式的分析查詢,多種投遞格式,壓縮類型,無需運維。

步驟一:選擇投遞的數據源

  1. 登錄OSS管理控制臺

  2. 在左側導航欄,選擇數據服務 > 數據導入

  3. 在數據導入頁面的日志導入區域,單擊前往控制臺

  4. 選擇投遞方式。

    • 如果您在SLS中已采集數據:

      1. 選擇SLS現有數據投遞OSS

      2. 選擇已存儲數據的Project/Logstore創建OSS投遞任務對話框,下拉選擇已采集數據所在的項目Project日志庫Logstore

    • 如果您在SLS中未采集數據:

      選擇數據采集并投遞OSS,完成數據采集后再將數據投遞到OSS。

      關于采集數據的更多信息,請參見數據采集概述

  5. 選擇是否對數據進行加工。

    • 如果選擇投遞OSS,則跳過步驟二,直接執行步驟三

    • 如果選擇加工后投遞OSS,需要執行步驟二

      當您對日志數據有以下使用需求時,可以選擇對日志數據加工后再投遞到OSS:

      • 數據規整:針對混亂格式的日志進行字段提取、格式轉換,獲取結構化數據以支持后續的流處理、數據倉庫計算。

      • 數據富化:對日志(例如訂單日志)和維表(例如用戶信息表)進行字段連接(JOIN),為日志添加更多維度的信息,用于數據分析。

      • 數據流轉:通過跨地域加速功能將海外地域的日志傳輸到中心地域,實現全球日志集中化管理。

      • 數據脫敏:對數據中包含的密碼、手機號、地址等敏感信息進行脫敏。

      • 數據過濾:過濾出關鍵服務的日志,用于重點分析。

(可選)步驟二:加工數據

以下以過濾OSS訪問日志為例,介紹過濾后僅保留OSS訪問日志中GetObject方法的操作步驟。

  1. 單擊目標Logstore左側的>,選擇數據處理 > 加工

  2. 在頁面右上角,選擇數據的時間范圍。

    選擇時間范圍后,請確認原始日志頁簽中存在日志。

  3. 在編輯框中,輸入以下數據加工語句。

    e_keep(e_search("operation=GetObject"))
  4. 預覽數據。

    1. 單擊快速

      日志服務支持快速預覽和高級預覽。更多信息,請參見預覽調試概述

    2. 單擊預覽數據,查看預覽結果。

      log

      • 如果加工語句錯誤或者權限配置錯誤,導致數據加工失敗,請根據頁面提示處理。

      • 如果確認數據加工結果無誤,請執行步驟創建數據加工任務

  5. 創建數據加工任務。

    1. 單擊保存數據加工

    2. 創建數據加工任務面板,按如下說明配置相關參數,其他參數保留默認配置,然后單擊確定

      參數

      說明

      任務名稱

      定義數據加工規則的名稱。

      授權方式

      選擇默認角色,表示授予數據加工任務使用阿里云系統角色AliyunLogETLRole來讀取源Logstore中的數據。如果您還沒有生成默認角色,需單擊授權系統角色AliyunLogETLRole,并根據頁面提示完成授權。更多信息,請參見通過默認角色訪問數據

      存儲目標

      目標名稱

      定義存儲目標的名稱。

      目標Project

      定義用于存儲數據加工結果的目標Project名稱。

      目標庫

      定義用于存儲數據加工結果的目標Logstore名稱。

      授權方式

      選擇默認角色,即授予數據加工任務使用阿里云系統角色AliyunLogETLRole將數據加工結果寫入目標Logstore。如果您還沒有生成默認角色,需單擊授權系統角色AliyunLogETLRole,并根據頁面提示完成授權。更多信息,請參見通過默認角色訪問數據

      加工范圍

      時間范圍

      指定數據加工任務的時間范圍,詳細說明如下:

      說明

      此處的時間范圍依賴日志的接收時間。

      • 所有:從Logstore接收到第一條日志的時間點開始數據加工任務,直到加工任務被手動停止。

      • 某時間開始:指定數據加工任務的開始時間,從該時間點開始加工,直到加工任務被手動停止。

      • 特定時間范圍:指定數據加工任務的起止時間,加工任務執行到指定時間后自動停止。

      關于創建數據加工任務涉及的各參數詳細說明,請參見創建數據加工任務

步驟三:投遞數據到OSS

日志服務投遞數據到OSS為同地域投遞,即日志服務Project所在的地域和OSS Bucket所在地域相同。您可以選擇新版或舊版投遞數據到OSS的方式完成日志數據入湖。舊版投遞數據到OSS支持日志服務所有已開服地域,而新版投遞數據到OSS(新版)僅支持以下地域:

重要

目前只支持華東1(杭州)、華東2(上海)、華東5(南京-本地地域)、華東1金融云、華東2金融云、華北1(青島)、華北2(北京)、華北3(張家口)、華北5 (呼和浩特)、華北6(烏蘭察布)、西南1(成都)、華南1(深圳)、華南2(河源)、華南3(廣州)、中國香港、新加坡、馬來西亞(吉隆坡)、印度尼西亞(雅加達)、菲律賓(馬尼拉)、泰國(曼谷)、日本(東京)、美國(硅谷)、美國(弗吉尼亞)

其中,華東1金融云僅支持OSS華東1金融云公網的Bucket;華東2金融云僅支持OSS華東2金融云的Bucket。

關于新舊版投遞數據到OSS的更多信息,請參見OSS投遞新舊版本對比

  1. 創建OSS投遞作業。

    OSS投遞功能頁面,按如下說明配置相關參數,其他參數保留默認配置,然后單擊投遞

    參數

    說明

    OSS投遞名稱

    投遞作業的名稱。

    OSS Bucket

    OSS Bucket名稱。

    重要
    • 必須是已存在且未開啟WORM的Bucket,且該Bucket與日志服務Project位于相同地域。關于WORM的更多信息,請參見保留策略(WORM)

    • 支持投遞到標準、低頻訪問、歸檔、冷歸檔、深度冷歸檔存儲類型的Bucket中。投遞后,生成的OSS Object的存儲類型默認與Bucket一致。更多信息,請參見存儲類型概述

    • 非標準存儲的Bucket存在最低存儲時間和最小計量單位限制,請根據需求合理設置目標Bucket存儲類型。更多信息,請參見存儲類型對比

    文件投遞目錄

    指定OSS Bucket中的目錄。目錄名不能以正斜線(/)或者反斜線(\)開頭。如果未指定該目錄,則生成的文件將保存在Bucket的根目錄下。

    創建OSS投遞任務后,Logstore中的數據將投遞到目標OSS Bucket的此目錄中。

    文件后綴

    指定生成文件的后綴。如果未設置文件后綴,則日志服務會根據存儲格式和壓縮類型自動生成后綴,例如suffix。

    寫OSS RAM角色

    選擇默認角色,表示授權OSS投遞作業使用阿里云系統角色AliyunLogDefaultRole將數據寫入到OSS Bucket中。如果您還沒有生成默認角色,需手動輸入AliyunLogDefaultRole的ARN。如何獲取ARN,請參見通過默認角色訪問數據

    讀Logstore RAM角色

    選擇默認角色,表示授權OSS投遞作業使用阿里云系統角色AliyunLogDefaultRole來讀取Logstore中的數據。如果您還沒有生成默認角色,需手動輸入AliyunLogDefaultRole的ARN。如何獲取ARN,請參見通過默認角色訪問數據

    開始時間范圍

    選擇投遞作業開始拉取Logstore中數據的起始時間。

    關于創建投遞作業涉及的各參數詳細說明,請參見創建OSS投遞任務(新版)

  2. 可選:查看生成的文件。

    將日志投遞到OSS成功后,您可以通過OSS控制臺、API、SDK或ossutil查看生成的文件。文件格式為:

    oss://OSS-BUCKET/OSS-PREFIX/PARTITION-FORMAT_RANDOM-ID

    參數說明如下表所示:

    參數

    說明

    示例值

    OSS-BUCKET

    OSS Bucket名稱。

    examplebucket

    OSS-PREFIX

    文件投遞目錄。

    exampledir

    PARTITION-FORMAT

    分區格式,通過strptime API計算得到的投遞作業創建時間。

    2022/01/20/19/50_1484913043351525351

    RANDOM-ID

    隨機生成的一次投遞行為的唯一標識。

    2850008

    結合以上示例值,則投遞作業創建時間為2022/01/20 19:50:43生成的OSS文件路徑為:

    oss://examplebucket/exampledir/2022/01/20/19/50_1484913043351525351_2850008.suffix
    說明

    OSS文件路徑以投遞作業的創建時間動態生成。假設您在2022-01-20 00:00:00創建投遞作業,5分鐘投遞一次數據到OSS Bucket,則此次投遞任務投遞的是2022-01-19 23:55后寫入日志服務的數據。由于寫入日志服務的數據可能存在延時,因此當您希望分析2022-01-19全天日志,除了查看2022/01/19目錄下的全部Object以外,還需要檢查2022/01/20/00/目錄下前十分鐘的Object是否包含2022-01-19的日志。