本文主要介紹如何在文件存儲 HDFS 版上搭建及使用Presto。
前提條件
已開通文件存儲 HDFS 版服務并創建文件系統實例和掛載點。具體操作,請參見文件存儲HDFS版快速入門。
已搭建Hadoop集群并且所有集群節點已安裝JDK,JDK版本不低于1.8。建議您使用的Hadoop版本不低于2.7.2,本文檔中使用的Hadoop版本為Apache Hadoop 2.8.5。
已在集群中下載并安裝Hive。本文使用的Hive版本為2.3.7。
已下載Presto安裝包和presto-cli-xxx-executable.jar。本文使用的Presto版本為0.265.1。
背景信息
Presto是一個開源的分布式SQL查詢引擎,適用于交互式分析查詢。
在本文中Presto是通過連接Hive的元數據服務來讀取文件存儲 HDFS 版上的數據,在文件存儲 HDFS 版上使用Presto時需要額外配置一些依賴包。具體操作,請參見步驟二:配置Presto。
步驟一:Hadoop集群掛載文件存儲 HDFS 版實例
在Hadoop集群中配置文件存儲 HDFS 版實例。具體操作,請參見掛載文件存儲 HDFS 版文件系統。
步驟二:配置Presto
執行以下命令,解壓Presto安裝包。
tar -zxf presto-server-0.265.1.tar.gz
執行以下命令,在Presto解壓目錄下創建目錄(例如/etc)。
mkdir presto-server-0.265.1/etc
配置節點環境。
創建etc/node.properties文件。
vim presto-server-0.265.1/etc/node.properties
在etc/node.properties文件中添加如下內容。
node.environment=production node.id=ffffffff-ffff-ffff-ffff-ffffffffffff node.data-dir=/var/presto/data
配置JVM參數。
創建etc/jvm.config文件。
vim presto-server-0.265.1/etc/jvm.config
在etc/jvm.config文件中添加如下內容。
-server -Xmx8G -XX:+UseG1GC -XX:G1HeapRegionSize=32M -XX:+UseGCOverheadLimit -XX:+ExplicitGCInvokesConcurrent -XX:+HeapDumpOnOutOfMemoryError -XX:+ExitOnOutOfMemoryError
配置Presto Server。
本文以將Coordinator和Worker配置在同一臺機器上為例進配置。您也可以將Coordinator和Worker配置在不同的機器中,具體操作,請參見Presto官方文檔。
創建etc/config.properties文件。
vim presto-server-0.265.1/etc/config.properties
在etc/config.properties中添加如下內容。
coordinator=true node-scheduler.include-coordinator=true http-server.http.port=8080 query.max-memory=5GB query.max-memory-per-node=1GB query.max-total-memory-per-node=2GB discovery-server.enabled=true discovery.uri=http://xx.xx.xx.xx:8080 #xx.xx.xx.xx為當前機器的ip地址
配置日志級別。
創建etc/log.properties文件。
vim presto-server-0.265.1/etc/log.properties
在etc/log.properties文件中添加如下內容。
com.facebook.presto=INFO
配置Presto數據源。
創建etc/catalog目錄。
mkdir presto-server-0.265.1/etc/catalog
創建etc/catalog/hive.properties文件。
vim presto-server-0.265.1/etc/catalog/hive.properties
在etc/catalog/hive.properties中添加如下內容。
connector.name=hive-hadoop2 hive.metastore.uri=thrift://xxxx:9083 #xxxx為啟動 hive 元數據服務的ip地址 hive.config.resources=/path/to/core-site.xml #請替換為該節點上已掛載文件存儲HDFS版的Hadoop core-site.xml路徑
編譯并替換JAR包。
Presto使用maven-shade-plugin插件打包,對引入的Hadoop依賴進行了重命名,文件存儲 HDFS 版Java SDK和Hadoop共用了protobuf-xxx.jar包,Presto通過Hive Metastore讀取文件存儲 HDFS 版上的數據時,文件存儲 HDFS 版獲取不到Presto重命名地址后的protobuf-xxx.jar包而報錯。為了避免兼容性問題,文件存儲 HDFS 版的Java SDK需要作為Presto Hadoop的依賴項引入,并對Presto中引入的Hadoop Jar包hadoop-apache2-xxx.jar重新編譯。
查看安裝的Presto中的presto-hadoop-apache2版本。
以0.265.1版本為例,通過源碼POM文件可以看到引入的hadoop-apache2版本為2.7.4-9。
下載presto-hadoop-apache2對應版本的源碼。
git clone -b 2.7.4-9 https://github.com/prestodb/presto-hadoop-apache2.git
在源碼中的POM文件中添加文件存儲 HDFS 版最新Java SDK的依賴項。本文使用的Java SDK版本為1.0.5。
vim presto-hadoop-apache2/pom.xml <dependency> <groupId>com.aliyun.dfs</groupId> <artifactId>aliyun-sdk-dfs</artifactId> <version>1.0.5</version> </dependency>
編譯presto-hadoop-apache2。
cd presto-hadoop-apache2
mvn clean package -DskipTests
查看生成的hadoop-apache2-2.7.4-9.jar。
執行以下命令,進入上一級目錄。
cd ..
執行以下命令,查看hadoop-apache2-2.7.4-9.jar是否符合預期。
ll -h presto-hadoop-apache2/target/
替換舊JAR包。
移除舊JAR包。
mv presto-server-0.265.1/plugin/hive-hadoop2/hadoop-apache2-2.7.4-9.jar presto-server-0.265.1/plugin/hive-hadoop2/hadoop-apache2-2.7.4-9.jar.bak
將編譯后的hadoop-apache2-2.7.4-9.jar依賴包拷貝到對應目錄下。
cp presto-hadoop-apache2/target/hadoop-apache2-2.7.4-9.jar presto-server-0.265.1/plugin/hive-hadoop2/
配置presto-cli-xxx-executable.jar。
將下載的presto-cli-xxx-executable.jar復制到presto-server-0.265.1/bin/目錄。
cp presto-cli-0.265.1-executable.jar presto-server-0.265.1/bin/
重命名presto-server-0.265.1/bin/目錄中的presto-cli-xxx-executable.jar。
mv presto-server-0.265.1/bin/presto-cli-0.265.1-executable.jar presto-server-0.265.1/bin/presto
為重新命名的文件添加可執行權限。
chmod +x presto-server-0.265.1/bin/presto
步驟三:驗證Presto
執行以下命令,啟動Hive的元數據服務。
hive --service metastore
啟動Presto Server并連接Hive Metastore。
啟動Presto Server。
presto-server-0.265.1/bin/launcher start
連接Hive Metastore。
presto-server-0.265.1/bin/presto --server localhost:8080 --catalog hive
通過Presto在Hive中創建數據庫。
在文件存儲 HDFS 版實例上創建測試目錄。
hadoop fs -mkdir dfs://f-xxxxxx.cn-zhangjiakou.dfs.aliyuncs.com:10290/tmp/presto_test
在Hive中創建數據庫。
CREATE SCHEMA hive.prosto_test WITH (location = 'dfs://f-xxxxxx.cn-zhangjiakou.dfs.aliyuncs.com:10290/tmp/presto_test');
在剛創建的數據庫中新建表并添加數據。
進入剛創建的數據庫。
use prosto_test;
創建表。
CREATE TABLE user_info_test ( user_id bigint, firstname varchar, lastname varchar, country varchar ) WITH ( format = 'TEXTFILE' );
在剛創建表中插入數據。
INSERT INTO user_info_test VALUES(1,'Dennis','Hu','CN'),(2,'Json','Lv','Jpn'),(3,'Mike','Lu','USA');
查看文件存儲 HDFS 版實例上是否有剛創建的表數據。
hadoop fs -ls dfs://f-xxxxx.cn-zhangjiakou.dfs.aliyuncs.com:10290/tmp/presto_test/*
如果返回信息顯示剛創建的表數據,則表示Presto可以向文件存儲 HDFS 版寫入數據。
進行Word Count計算,檢驗Presto能否讀取文件存儲 HDFS 版上的數據并計算。
SELECT country,count(*) FROM user_info_test GROUP BY country;
如果返回信息與創建表中的信息一致,則表示Presto可讀取文件存儲 HDFS 版上的數據并計算。