目录html
@(博客文章)[storm|大数据]ios
一、OS:debian 7
二、JDK 7.0apache
一、下载zookeeper并解压
wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
tar -zxvf zookeeper-3.4.6.tar.gz
二、准备配置文件
cd conf
cp zoo_sample.cfg zoo.cfg
三、启动zookeeper
bin/zkServer.sh start
四、验证zookeeper的状态
bin/zkServer.sh status
输出以下:
JMX enabled by default
Using config: /home/jediael/setupfile/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: standalone安全
一、下载storm并解压
wget http://mirror.bit.edu.cn/apache/storm/apache-storm-0.9.4/apache-storm-0.9.4.tar.gz
tar -zxvf apache-storm-0.9.4.tar.gz
二、启动storm服务器
nohup bin/storm nimbus & nohup bin/storm supervisor & nohup bin/storm ui &
三、查看进程jvm
jediael@jediael:~/setupfile/zookeeper-3.4.6$ jps | grep -v Jps 3235 supervisor 3356 core 3140 QuorumPeerMain 3214 nimbus
四、查看ui界面
http://ip:8080分布式
一、根据《storm分布式实时计算模式》第一章代码及P41的修改,并打包上传到服务器
二、运行job
storm jar word-count-1.0-SNAPSHOT.jar storm.blueprints.chapter1.v1.WordCountTopology wordcount-topology
三、在ui界面上能够看到一个topology正在运行oop
注意:先安装zookeeper:http://blog.csdn.net/jinhong_lu/article/details/46519899大数据
wget http://mirror.bit.edu.cn/apache/storm/apache-storm-0.9.4/apache-storm-0.9.4.tar.gz
tar -zxvf apache-storm-0.9.4.tar.gz
并在home目录中添加连接
ln -s src/apache-storm-0.9.4 stormui
storm.zookeeper.servers: - "gdc-nn01-test" - "gdc-dn01-test" - "gdc-dn02-test" nimbus.host: "gdc-nn01-test" supervisor.slots.ports: - 6700 - 6701 - 6702 - 6703 storm.local.dir: "/home/hadoop/storm/data” #jvm setting nimbus.childopts:"-4096m” supervisor.childopts:"-Xmx4096m" nimubs.childopts:"-Xmx3072m”
说明:
一、关于日志
在初次运行storm程序时,可能会出现各类各样的错误,通常错误都可在日志中发现,在本例中,须要重点关注的日志有:
(1)supervisor上的work日志,位于$STORM_HOME/logs,若是集群正常,但某个topology运行出现错误,通常能够在这些work日志中找到问题。最多见的是CLASSNOTFOUNDEXCEPTION, CLASSNOTDEFINDEXCEPTION,都是缺包致使的,将它们放入$STORM_HOME/lib便可。
(2)nimbus上的日志,位于$STORM_HOME/logs,主要观察整个集群的状态,有如下4个文件
access.log metrics.log nimbus.log ui.log
(3)kafka的日志,位于$KAFKA_HOME/logs,观察kafka是否运行正常。
2.关于emit与transfer(转自http://www.reader8.cn/jiaocheng/20120801/2057699.html)
storm ui上emit和transferred的区别
最开始对storm ui上展现出来的emit和transferred数量不是很明白, 因而在storm-user上google了一把, 发现有人也有跟我同样的困惑, nathan作了详细的回答:
emitted栏显示的数字表示的是调用OutputCollector的emit方法的次数.
transferred栏显示的数字表示的是实际tuple发送到下一个task的计数.
若是一个bolt A使用all group的方式(每个bolt都要接收到)向bolt B发射tuple, 此时bolt B启动了5个task, 那么trasferred显示的数量将是emitted的5倍.
若是一个bolt A内部执行了emit操做, 可是没有指定tuple的接受者, 那么transferred将为0.
这里还有关于spout, bolt之间的emitted数量的关系讨论, 也解释了个人一些疑惑:
有 的bolt的execture方法中并无emit tuple, 可是storm ui中依然有显示emitted, 主要是由于它调用了ack方法, 而该方法将emit ack tuple到系统默认的acker bolt. 所以若是anchor方式emit一个tuple, emitted通常会包含向acker bolt发射tuple的数量.
另外collector.emit(new Values(xxx))和collector.emit(tuple, new Values(xxx)) 这两种不一样的emit方法也会影响后面bolt的emitted和transferred, 若是是前者, 则后续bolt的这两个值都是0, 由于前一个emit方法是非安全的, 再也不使用acker来进行校验.
注意、重点:storm运行topology时会有一大堆的包依赖问题,建议保存好现有的包,在新集群中直接导入便可,并且都放到集群中的每个机器上。
将storm整个目录scp到dn01,dn02,dn03
(1)在nn01上启动nimbus,ui
nohup bin/storm nimbus &
nohup bin/storm ui &
(2)在dn0[123]上启动
nohup bin/storm superivsor &
(1)打开页面看状态
http://192.168.169.91:8080/index.html
(2)在example目录下执行一个示例topology
$ /home/hadoop/storm/bin/storm jar storm-starter-topologies-0.9.4.jar storm.stater.WordCountTopology word-count
而后再到ui上看看是否已经提交成功
storm有2种启动方式:命令模式以及supervisor模式
一、在nimbus上启动nimbus及ui
nohup bin/storm nimbus & nohup bin/storm ui &
(2)在各个supervisor上启动superviosr与logviewer
nohup bin/storm superivsor & nohup bin/storm superivsor &
(3)若是有须要的话,启动drpc
nohup bin/storm drpc &
待补充