Hadoop之Storm安装

nimbus:主节点,负责分发代码,分配任务(只能有一个)
supervisor:从节点,负责执行任务(可以有多个)

jdk
zookeeper(192.168.1.170/171/172)
建议在zookeeper的节点上设置一个crontab定时任务,同步时间:* * * * * /usr/sbin/ntpdate time.nist.gov

主节点:192.168.1.170  nimbus
从节点:192.168.1.171,172   supervisor

storm版本是0.9.3

安装

1. 解压:tar –zxvf

2. conf/storm.yaml

编辑:

1.srorm.zookeeper.servers:

-“192.168.0.1” (注意,-前是空格,不能是制表符,tab。-后也有空格   适用于多个参数)

- “ 192.168.0.2”

2.     nimbus.host:(空格)”192.168.0.3”主节点(注意格式,单个参数)

3.  storm.local.dir:”/usr/local/storm/tmp”存储提交的源码 (注意文件路径是否存在,以及权限,否则导致启动后 一会就exit )

4. supervisor.slots.ports:(格式同上)

-6700

-6701

-6702

-6703

5. 主节点与从节点配置文件一样。  将上述配置好的storm 直接copy其他节点。

6.启动   +后台启动

nohup storm /bin/storm nimbus  >/dev/null 2>&1  &   主节点

(如果没有nohup ,关掉窗口后进程也关闭)   & 后台 (记得要复习shell)

jps 会看到 conf_value 进程

nohup storm /bin/storm supervisor  >/dev/null 2>&1  &  所有从节点

7.启动web界面

nohup storm /bin/storm ui>/dev/null 2>&1  &  主节点

进程名称 core

访问 :192.168.0.3:8080

8.启动后台log

nohup storm logviewer >/dev/null 2>&1 &    所有从节点

9.提交代码

storm java  path/*.jar  xxxxMainclasee(全路径)

上一篇:Twitter Storm安装配置(Ubuntu系统)单机版


下一篇:Hadoop第3周练习--Hadoop2.X编译安装和实验