日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

Hive使用JindoSDK處理OSS-HDFS服務中的數據

使用Hive搭建離線數倉時,隨著數據量的不斷增長,傳統的基于HDFS存儲的數倉可能無法以較低成本滿足用戶的需求。在這種情況下,您可以使用OSS-HDFS服務作為Hive數倉的底層存儲,并通過JindoSDK獲得更好的讀寫性能。

前提條件

操作步驟

  1. 連接ECS實例。具體操作,請參見連接ECS實例

  2. 配置JindoSDK。

    1. 下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub

    2. 解壓JindoSDK JAR包。

      以下以解壓jindosdk-x.x.x-linux.tar.gz為例,如使用其他版本的JindoSDK,請替換為對應的JAR包名稱。

      tar zxvf jindosdk-x.x.x-linux.tar.gz
      說明

      x.x.x表示JindoSDK JAR包版本號。

    3. 可選:如果您的環境中未包含KerberosSASL相關依賴,則需要在部署JindoSDK的所有節點安裝以下依賴。

      • UbuntuDebian

        sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
      • Red Hat Enterprise LinuxCentOS

        sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
      • macOS

        brew install krb5
    4. 將已下載的JindoSDK JAR包拷貝至Hiveclasspath路徑下。

      cp jindosdk-x.x.x-linux/lib/*.jar  $HIVE_HOME/lib/
  3. 配置OSS-HDFS服務實現類及AccessKey。

    1. OSS-HDFS服務實現類配置到Hivecore-site.xml文件中。

      <configuration>
          <property>
              <name>fs.AbstractFileSystem.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOSS</value>
          </property>
      
          <property>
              <name>fs.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
          </property>
      </configuration>
    2. 將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret預先配置在Hivecore-site.xml文件中。

      <configuration>
          <property>
              <name>fs.oss.accessKeyId</name>
              <value>LTAI******** </value>
          </property>
      
          <property>
              <name>fs.oss.accessKeySecret</name>
              <value>KZo1********</value>
          </property>
      </configuration>
  4. 配置OSS-HDFS服務Endpoint。

    使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK會根據訪問路徑中的Endpoint訪問對應的OSS-HDFS服務接口。

    您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優先級。更多信息,請參見附錄一:配置Endpoint的其他方式

    重要

    完成以上配置后,您需要重啟Hive服務,使配置生效。

  5. 在終端使用以下命令連接Hive。

    更多連接方式,請參見Hive連接方式

    hive
  6. 通過OSS-HDFS服務存儲數據。

    創建數據庫和表時,您可以通過以下兩種方式指定OSS-HDFS服務路徑,將數據庫或表的數據保存到OSS-HDFS服務中。

    • 方式一:在命令示例中指定OSS-HDFS服務路徑

      • 創建數據庫時指定OSS-HDFS服務路徑

        CREATE DATABASE db_on_oss1 LOCATION 'oss://bucket_name.endpoint_name/path/to/db1';
      • 創建表時指定OSS-HDFS服務路徑

        CREATE TABLE db2.table_on_oss (
            id INT,
            name STRING,
            age INT
        ) LOCATION 'oss://bucket_name.endpoint_name/path/to/db2/tablepath';
    • 方式二:在配置文件中指定OSS-HDFS服務路徑

      您可以在Hive Metastorehive-site.xml配置文件中設置hive.metastore.warehouse.dirOSS-HDFS服務路徑,然后重啟Hive Metastore,后續創建的數據庫和數據庫下的表均默認存儲于OSS-HDFS服務路徑中。

      配置示例如下:

      <configuration>
      
          <property>
              <name>hive.metastore.warehouse.dir</name>
              <value>oss://bucket_name.endpoint_name/path/to/warehouse</value>
          </property>
      
      </configuration>
  7. 為已有表添加分區。

    您可以為已創建的表添加分區,從而將其分成較小的存儲單元。根據查詢條件,只掃描滿足條件的分區而避免全表掃描,從而顯著提升查詢性能。

    • 命令格式

      ALTER TABLE <table_name> ADD [IF NOT EXISTS] PARTITION <pt_spec> [PARTITION <pt_spec> PARTITION <pt_spec>...] LOCATION 'location';

      參數說明如下:

      參數

      是否可選

      說明

      table_name

      必選

      待添加分區的表名稱。

      IF NOT EXISTS

      可選

      未指定IF NOT EXISTS時,如果同名的分區已存在,會執行失敗并返回報錯。

      pt_spec

      必選

      新增的分區,格式為(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)。其中,partition_col表示分區字段,partition_col_value表示分區值。分區字段不區分大小寫,分區值區分大小寫。

      location

      必選

      指定存儲分區的OSS路徑。

    • 使用示例

      以下示例用于為表sale_detail添加一個分區,用于存儲202112月華東1(杭州)地域的銷售記錄,并將分區存儲于指定的OSS路徑。

      ALTER TABLE sale_detail ADD IF NOT EXISTS PARTITION (sale_date='202112', region='hangzhou') LOCATION 'oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/path/2021/';