使用Hive搭建離線數倉時,隨著數據量的不斷增長,傳統的基于HDFS存儲的數倉可能無法以較低成本滿足用戶的需求。在這種情況下,您可以使用OSS-HDFS服務作為Hive數倉的底層存儲,并通過JindoSDK獲得更好的讀寫性能。
前提條件
已創建ECS實例。具體步驟,請參見選購ECS實例。
已開通并授權訪問OSS-HDFS服務。具體操作,請參見開通并授權訪問OSS-HDFS服務。
已自行部署Hive客戶端。
操作步驟
連接ECS實例。具體操作,請參見連接ECS實例。
配置JindoSDK。
下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub。
解壓JindoSDK JAR包。
以下以解壓
jindosdk-x.x.x-linux.tar.gz
為例,如使用其他版本的JindoSDK,請替換為對應的JAR包名稱。tar zxvf jindosdk-x.x.x-linux.tar.gz
說明x.x.x表示JindoSDK JAR包版本號。
可選:如果您的環境中未包含Kerberos和SASL相關依賴,則需要在部署JindoSDK的所有節點安裝以下依賴。
Ubuntu或Debian
sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
Red Hat Enterprise Linux或CentOS
sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
macOS
brew install krb5
將已下載的JindoSDK JAR包拷貝至Hive的classpath路徑下。
cp jindosdk-x.x.x-linux/lib/*.jar $HIVE_HOME/lib/
配置OSS-HDFS服務實現類及AccessKey。
將OSS-HDFS服務實現類配置到Hive的core-site.xml文件中。
<configuration> <property> <name>fs.AbstractFileSystem.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOSS</value> </property> <property> <name>fs.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value> </property> </configuration>
將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret預先配置在Hive的core-site.xml文件中。
<configuration> <property> <name>fs.oss.accessKeyId</name> <value>LTAI******** </value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>KZo1********</value> </property> </configuration>
配置OSS-HDFS服務Endpoint。
使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為
oss://<Bucket>.<Endpoint>/<Object>
,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt
。配置完成后,JindoSDK會根據訪問路徑中的Endpoint訪問對應的OSS-HDFS服務接口。您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優先級。更多信息,請參見附錄一:配置Endpoint的其他方式。
重要完成以上配置后,您需要重啟Hive服務,使配置生效。
在終端使用以下命令連接Hive。
更多連接方式,請參見Hive連接方式。
hive
通過OSS-HDFS服務存儲數據。
創建數據庫和表時,您可以通過以下兩種方式指定OSS-HDFS服務路徑,將數據庫或表的數據保存到OSS-HDFS服務中。
方式一:在命令示例中指定OSS-HDFS服務路徑
創建數據庫時指定OSS-HDFS服務路徑
CREATE DATABASE db_on_oss1 LOCATION 'oss://bucket_name.endpoint_name/path/to/db1';
創建表時指定OSS-HDFS服務路徑
CREATE TABLE db2.table_on_oss ( id INT, name STRING, age INT ) LOCATION 'oss://bucket_name.endpoint_name/path/to/db2/tablepath';
方式二:在配置文件中指定OSS-HDFS服務路徑
您可以在Hive Metastore的hive-site.xml配置文件中設置hive.metastore.warehouse.dir到OSS-HDFS服務路徑,然后重啟Hive Metastore,后續創建的數據庫和數據庫下的表均默認存儲于OSS-HDFS服務路徑中。
配置示例如下:
<configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>oss://bucket_name.endpoint_name/path/to/warehouse</value> </property> </configuration>
為已有表添加分區。
您可以為已創建的表添加分區,從而將其分成較小的存儲單元。根據查詢條件,只掃描滿足條件的分區而避免全表掃描,從而顯著提升查詢性能。
命令格式
ALTER TABLE <table_name> ADD [IF NOT EXISTS] PARTITION <pt_spec> [PARTITION <pt_spec> PARTITION <pt_spec>...] LOCATION 'location';
參數說明如下:
參數
是否可選
說明
table_name
必選
待添加分區的表名稱。
IF NOT EXISTS
可選
未指定IF NOT EXISTS時,如果同名的分區已存在,會執行失敗并返回報錯。
pt_spec
必選
新增的分區,格式為
(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。其中,partition_col
表示分區字段,partition_col_value
表示分區值。分區字段不區分大小寫,分區值區分大小寫。location
必選
指定存儲分區的OSS路徑。
使用示例
以下示例用于為表sale_detail添加一個分區,用于存儲2021年12月華東1(杭州)地域的銷售記錄,并將分區存儲于指定的OSS路徑。
ALTER TABLE sale_detail ADD IF NOT EXISTS PARTITION (sale_date='202112', region='hangzhou') LOCATION 'oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/path/2021/';