1. 解压缩 presto-server-0.166.tar.gznode
tar -xzvf presto-server-0.166.tar.gz
2. 在 presto-server-0.166 目录下建立 etc 目录mysql
cd presto-server-0.166 mkdir etc
3. 在 etc 目录下建立 catalog 目录sql
cd etc mkdir catalog
4. 在 catalog 目录下建立文件 hive.properties ,文件内容以下apache
connector.name=hive-hadoop2 hive.metastore.uri=thrift://bigdata:9083 hive.config.resources=/opt/hadoop-2.7.4/etc/hadoop/core-site.xml,/opt/hadoop-2.7.4/etc/hadoop/hdfs-site.xml
5. 在 etc 目录下建立 config.properties , 文件内容以下bash
coordinator=true node-scheduler.include-coordinator=true http-server.http.port=8080 query.max-memory=512MB query.max-memory-per-node=512MB discovery-server.enabled=true discovery.uri=http://bigdata:8080
6. 在 etc 目录下建立 jvm.config , 文件内容以下jvm
-server -Xmx1G -XX:+UseG1GC -XX:G1HeapRegionSize=32M -XX:+UseGCOverheadLimit -XX:+ExplicitGCInvokesConcurrent -XX:+HeapDumpOnOutOfMemoryError -XX:OnOutOfMemoryError=kill -9 %p
7. 在 etc 目录下建立 node.properties , 文件内容以下oop
node.environment=production node.id=bigdata node.data-dir=/opt/presto-server-0.166/presto_data
8. 配置 presto clientrest
# 把客户端jar包放置在presto-server-0.166/bin目录下 mv presto-cli-0.166-executable.jar presto-server-0.166/bin # 修改客户端jar包名为presto mv presto-cli-0.166-executable.jar presto # 修改presto客户端jar包权限 chmod +x presto
9. 把 presto 添加到环境变量中 (~/.bash_profile)code
export PRESTO_HOME=/opt/presto-server-0.166 export PATH=$PRESTO_HOME/bin:$PATH
# 使环境变量当即生效 source ~/.bash_profile
10. 启动 Prestoserver
presto 依赖 hdfs 和 hive metastore
# 启动 HDFS hadoop-2.7.4/sbin/start-dfs.sh # 启动 Hive metastore sudo service mysqld start nohup hive --service metastore >> /opt/apache-hive-2.1.1-bin/metastore.log 2>&1 & # 启动 Presto presto-server-0.166/bin/launcher start
11. 验证 presto 是否启动
查看Presto Web UI
http://bigdata:8080
启动 Presto 客户端
presto --server bigdata:8080 --catalog hive --schema default