spark集群搭建(三台虚拟机)——kafka集群搭建(4)

!!!该系列使用三台虚拟机搭建一个完整的spark集群,集群环境以下:html

virtualBox5.二、Ubuntu14.0四、securecrt7.3.6_x64英文版(链接虚拟机)java

jdk1.7.0、hadoop2.6.五、zookeeper3.4.五、Scala2.12.六、kafka_2.9.2-0.8.一、park1.3.1-bin-hadoop2.6vim

第一篇:准备三台虚拟机环境,配置静态IP,ssh免密码登陆less

第二篇:搭建hadoop集群ssh

第三篇:搭建zookeeper集群
oop

第四篇:搭建kafka集群
post

第五篇:搭建spark集群spa

本文在前面基础上搭建kafkascala

1、Scala安装(2.12.6)ssr

在spark1上:

一、下载解压重命名

二、配置Scala环境变量:

export SCALA_HOME=/usr/local/bigdata/scala
export PATH
=$PATH:$SCALA_HOME/bin

三、验证Scala

root@spark1:/usr/local/bigdata/zk/conf# scala -version
Scala code runner version 2.12.6 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

  

四、拷贝到spark2 和spark3上

$ cd /usr/local/bigdata
root@spark1:/usr/local/bigdata# scp -r scala root@spark2://usr/local/bigdata/
root@spark1:/usr/local/bigdata# scp -r scala root@spark3://usr/local/bigdata/

五、同理配置spark2和spark3环境变量

2、kafka(kafka_2.9.2-0.8.1)

在spark1上:

一、kafka下载解压重命名

二、修改server.properties

$ cd /usr/local/bigdata/kafka
$ cd ./config
$ vim server.properties

按顺序添加zookeeper的三台主机名

zookeeper.connect=192.168.43.124:2181,192.168.43.123:2181,192.168.43.125:2181

三、进入bin目录下

$ vim kafka-run-class.sh

找到

  KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"

去掉

 -XX:+UseCompressedOops

四、slf4j-1.7.6

下载:连接:https://pan.baidu.com/s/1UQ728d7YOdRssrgYEUArUA 密码:h7bu

解压,将slf4j-nop-1.7.6.jar复制到 kafka 的libs 目录下

五、将kafka拷贝到spark2和spark3上

root@spark1:/usr/local/bigdata# scp -r kafka root@spark2://usr/local/bigdata/
root@spark1:/usr/local/bigdata# scp -r kafka root@spark3://usr/local/bigdata/

修改spark2上的kafka 的server.properties文件,将broker.id值改成1

broker.id=1

修改spark3上的kafka 的server.properties文件,将broker.id值改成2

 broker.id=2

3、启动kafka,三台机器均须要启动

$ cd kafka  #进入kafka安装目录下
$ ./bin/kafka-server-start.sh config/server.properties & 

启动成功

root@spark1:~# jps
2465 Jps
2435 NodeManager
2307 ResourceManager
1955 DataNode
1829 NameNode
1605 Kafka
2154 SecondaryNameNode
1519 QuorumPeerMain

 

若是启动出现卡住不动多是内存不够,解决:

将 kafka-server-start.sh的
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
修改成
export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
相关文章
相关标签/搜索