Storm集群安装详解

storm有两种操作模式: 本地模式和远程模式。

本地模式:你可以在你的本地机器上开发测试你的topology, 一切都在你的本地机器上模拟出来; 

远端模式:你提交的topology会在一个集群的机器上执行。

本文以Twitter Storm官方Wiki为基础,详细描述如何快速搭建一个Storm集群,其中,项目实践中遇到的问题及经验总结,在相应章节以“注意事项”的形式给出。

1.   Strom集群组件

       Storm集群中包含两类节点:主控节点(Master Node)和工作节点(Work Node)。其分别对应的角色如下:

1. 主控节点(Master Node)上运行一个被称为Nimbus的后台程序,它负责在Storm集群内分发代码,分配任务给工作机器,并且负责监控集群运行状态。Nimbus的作用类似于Hadoop中JobTracker的角色。

2. 每个工作节点(Work Node)上运行一个被称为Supervisor的后台程序。Supervisor负责监听从Nimbus分配给它执行的任务,据此启动或停止执行任务的工作进程。每一个工作进程执行一个Topology的子集;一个运行中的Topology由分布在不同工作节点上的多个工作进程组成。

1.png 

Storm集群组件

Nimbus和Supervisor节点之间所有的协调工作是通过Zookeeper集群来实现的。此外,Nimbus和Supervisor进程都是快速失败(fail-fast)和无状态(stateless)的;Storm集群所有的状态要么在Zookeeper集群中,要么存储在本地磁盘上。这意味着你可以用kill -9来杀死Nimbus和Supervisor进程,它们在重启后可以继续工作。这个设计使得Storm集群拥有不可思议的稳定性。

2.   Strom集群安装

这一章节将详细描述如何搭建一个Storm集群。下面是接下来需要依次完成的安装步骤:

1. 搭建Zookeeper集群;

2. 安装Storm依赖库;

3. 下载并解压Storm发布版本;

4. 修改storm.yaml配置文件;

5. 启动Storm各个后台进程。

2.1 安装java

安装java:
一、安装
创建安装目录,在/usr/java下建立安装路径,并将文件考到该路径下: 
# mkdir /usr/java
1、 jdk-6u13-linux-i586.bin 这个是自解压的文件,在linux上安装如下: 
# chmod 755  jdk-6u13-linux-i586.bin 
# ./ jdk-6u13-linux-i586.bin (注意,这个步骤一定要在 jdk-6u13-linux-i586.bin所在目录下)
在按提示输入yes后,jdk被解压。
 出现一行字:Do you aggree to the above license terms? [yes or no]
  安装程序在问您是否愿意遵守刚才看过的许可协议。当然要同意了,输入"y" 或 "yes" 回车。

二、配置
 #vi /etc/profile
  在里面添加如下内容

export JAVA_HOME=/usr/java/jdk1.6.0_13
export JAVA_BIN=/usr/java/jdk1.6.0_13/bin
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME JAVA_BIN PATH CLASSPATH

让/etc/profile文件修改后立即生效 ,可以使用如下命令:
 # . /etc/profile
注意: . 和 /etc/profile 有空格. 
 
重启测试
  java -version
  屏幕输出:

java version "jdk1.6.0_02"
  Java(TM) 2 Runtime Environment, Standard Edition (build jdk1.6.0_02)
  Java HotSpot(TM) Client VM (build jdk1.6.0_02, mixed mode)

问题:
1)安装jdk,而不是jre啊,jre没有javac

如果使用yum install java 安装,没有安装javac的。

2)安装java的版本和javac版本要一致。否则执行jar包的时候会报错找不到main函数:

Exception in thread "main" java.lang.UnsupportedClassVersionError

2.1 搭建Zookeeper集群

Storm使用Zookeeper协调集群,由于Zookeeper并不用于消息传递,所以Storm给Zookeeper带来的压力相当低。大多数情况下,单个节点的Zookeeper集群足够胜任,不过为了确保故障恢复或者部署大规模Storm集群,可能需要更大规模节点的Zookeeper集群(对于Zookeeper集群的话,官方推荐的最小节点数为3个)。在Zookeeper集群的每台机器上完成以下安装部署步骤:

1. 根据Zookeeper集群的负载情况,合理设置Java堆大小,尽可能避免发生swap,导致Zookeeper性能下降。保守起见,4GB内存的机器可以为Zookeeper分配3GB最大堆空间。

2. 下载后解压安装Zookeeper包,官方下载链接为http://hadoop.apache.org/zookeeper/releases.html

3. 根据Zookeeper集群节点情况,在conf目录下创建Zookeeper配置文件zoo.cfg:

tickTime=2000
dataDir=/var/zookeeper/
clientPort=2181
initLimit=5
syncLimit=2
server.1=zoo1:2888:3888
server.2=zoo2:2888:3888
server.3=zoo3:2888:3888

其中,dataDir指定Zookeeper的数据文件目录;其中server.id=host:port:port,id是为每个Zookeeper节点的编号,保存在dataDir目录下的myid文件中,zoo1~zoo3表示各个Zookeeper节点的hostname,第一个port是用于连接leader的端口,第二个port是用于leader选举的端口。

4. 在dataDir目录下创建myid文件,文件中只包含一行,且内容为该节点对应的server.id中的id编号。

5. 启动Zookeeper服务:

java -cp zookeeper.jar:lib/log4j-1.2.15.jar:conf \ org.apache.zooke
eper.server.quorum.QuorumPeerMain zoo.cfg

  

或者

bin/zkServer.sh start

输入jps命令查看进程:namenode上显示为(本次为单机配置):19361 QuorumPeerMain21691 Jps其中,QuorumPeerMain是zookeeper进程,启动正常。3、查看状态:zookeeper-3.4.3/bin/zkServer.sh statusJMX enabled by defaultUsing config: /home/hadooptest/zookeeper-3.4.3/bin/../conf/zoo.cfgMode: standalone

6. 通过Zookeeper客户端测试服务是否可用:

java -cp zookeeper.jar:src/java/lib/log4j-1.2.15.jar:conf:src/java/lib/jline-0.9.94.jar \ 
org.apache.zookeeper.ZooKeeperMain -server 127.0.0.1:2181

或者

bin/zkCli.sh -server 127.0.0.1:2181

7、停止zookeeper进程:zookeeper-3.4.3/bin/zkServer.sh stop

注意事项:

由于Zookeeper是快速失败(fail-fast)的,且遇到任何错误情况,进程均会退出,因此,最好能通过监控程序将Zookeeper管理起来,保证
Zookeeper退出后能被自动重启。详情参考这里。
Zookeeper运行过程中会在dataDir目录下生成很多日志和快照文件,而Zookeeper运行进程并不负责定期清理合并这些文件,导致占用大量磁
盘空间,因此,需要通过cron等方式定期清除没用的日志和快照文件。详情参考这里。具体命令格式如下:java -cp 
zookeeper.jar:log4j.jar:conf org.apache.zookeeper.server.PurgeTxnLog <dataDir> <snapDir> -n <count>

2.2 安装Storm依赖库

接下来,需要在Nimbus和Supervisor机器上安装Storm的依赖库,具体如下:

1. ZeroMQ 2.1.7 – 请勿使用2.1.10版本,因为该版本的一些严重bug会导致Storm集群运行时出现奇怪的问题。少数用户在2.1.7版本会遇到”IllegalArgumentException”的异常,此时降为2.1.4版本可修复这一问题。

2. JZMQ

3. Java 6 

4. Python 2.6.6

5. unzip

以上依赖库的版本是经过Storm测试的,Storm并不能保证在其他版本的Java或Python库下可运行。

2.2.1 安装ZMQ 2.1.7

下载后编译安装ZMQ:

wget http://download.zeromq.org/zeromq-2.1.7.tar.gz
tar -xzf zeromq-2.1.7.tar.gz
cd zeromq-2.1.7
./configure
make
sudo make install

注意事项:

如果安装过程报错uuid找不到,则通过如下的包安装uuid库:
sudo yum install e2fsprogsl  -b current
sudo yum install e2fsprogs-devel  -b current

2.2.2 安装JZMQ

下载后编译安装JZMQ:

git clone https://github.com/nathanmarz/jzmq.git cd jzmq ./autogen.
sh ./configure make sudo make install

为了保证JZMQ正常工作,可能需要完成以下配置:

  1. 正确设置 JAVA_HOME环境变量

  2. 安装Java开发包

  3. 升级autoconf

  4. 如果你是Mac OSX,参考这里

注意事项:

如果运行 ./configure 命令出现问题,参考这里。

2.2.3 安装Java 6

    (上面已经提到安装了)

2.2.4 安装Python2.6.6

  1. 下载Python2.6.6:

  2. wget http://www.python.org/ftp/python/2.6.6/Python-2.6.6.tar.bz

2. 编译安装Python2.6.6:

tar –jxvf Python-2.6.6.tar.bz2
cd Python-2.6.6
./configure
make
make install

3. 测试Python2.6.6:

python -V
Python 2.6.6

2.2.5 安装unzip

  1. 如果使用RedHat系列Linux系统,执行以下命令安装unzip:

  2. apt-get install unzip

2. 如果使用Debian系列Linux系统,执行以下命令安装unzip:

yum install unzip

2.3 下载并解压Storm发布版本

下一步,需要在Nimbus和Supervisor机器上安装Storm发行版本。

  1. 下载Storm发行版本,推荐使用Storm0.8.1:

  2. wget https://github.com/downloads/nathanmarz/storm/storm-0.8.1.zip

2. 解压到安装目录下:

unzip storm-0.8.1.zip

2.4 修改storm.yaml配置文件

Storm发行版本解压目录下有一个conf/storm.yaml文件,用于配置Storm。默认配置在这里可以查看。conf/storm.yaml中的配置选项将覆盖defaults.yaml中的默认配置。以下配置选项是必须在conf/storm.yaml中进行配置的:

1) storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:

storm.zookeeper.servers:
- “111.222.333.444″
- “555.666.777.888″

如果Zookeeper集群使用的不是默认端口,那么还需要storm.zookeeper.port选项

2) storm.local.dir: Nimbus和Supervisor进程用于存储少量状态,如jars、confs等的本地磁盘目录,需要提前创建该目录并给以足够的访问权限。然后在storm.yaml中配置该目录,如:

storm.local.dir: "/home/admin/storm/workdir"

3) java.library.path: Storm使用的本地库(ZMQ和JZMQ)加载路径,默认为”/usr/local/lib:/opt/local/lib:/usr/lib”,一般来说ZMQ和JZMQ默认安装在/usr/local/lib 下,因此不需要配置即可。

4) nimbus.host: Storm集群Nimbus机器地址,各个Supervisor工作节点需要知道哪个机器是Nimbus,以便下载Topologies的jars、confs等文件,如:

nimbus.host: "111.222.333.444"

5) supervisor.slots.ports: 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量。每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如:

supervisor.slots.ports:
    - 6700
    - 6701
    - 6702
    - 6703

这个脚本文件写的不咋地,所以在配置时一定注意在每一项的开始时要加空格,冒号后也必须要加空格,否则storm就不认识这个配置文件了,切记切记。

2.5 启动Storm各个后台进程

最后一步,启动Storm的所有后台进程。和Zookeeper一样,Storm也是快速失败(fail-fast)的系统,这样Storm才能在任意时刻被停止,并且当进程重启后被正确地恢复执行。这也是为什么Storm不在进程内保存状态的原因,即使Nimbus或Supervisors被重启,运行中的Topologies不会受到影响。

以下是启动Storm各个后台进程的方式:

  1. Nimbus: 在Storm主控节点上运行”bin/storm nimbus >/dev/null 2>&1 &”启动Nimbus后台程序,并放到后台执行;

  2. Supervisor: 在Storm各个工作节点上运行”bin/storm supervisor >/dev/null 2>&1 &”启动Supervisor后台程序,并放到后台执行;

  3. UI: 在Storm主控节点上运行”bin/storm ui >/dev/null 2>&1 &”启动UI后台程序,并放到后台执行,启动后可以通过http://{nimbus host}:8080观察集群的worker资源使用情况、Topologies的运行状态等信息。

注意事项:

启动Storm后台进程时,需要对conf/storm.yaml配置文件中设置的storm.local.dir目录具有写权限。
Storm后台进程被启动后,将在Storm安装部署目录下的logs/子目录下生成各个进程的日志文件。
经测试,Storm UI必须和Storm Nimbus部署在同一台机器上,否则UI无法正常工作,因为UI进程会检查本机是否存在Nimbus链接。
为了方便使用,可以将bin/storm加入到系统环境变量中。

至此,Storm集群已经部署、配置完毕,可以向集群提交拓扑运行了。

3.   安装storm出现的问题

1、 修复/lib/ld-linux.so.2: bad ELF interpreter: No such file or directory问题
    在64系统里执行32位程序如果出现/lib/ld-linux.so.2: 
    bad ELF interpreter: No such file or directory,安装下glic即可
sudo yum install glibc.i686
*注意在安装uuid-dev的时候不同系统安装的名称不一样,使用centeros的同学需要安装yum install libuuid-devel,ubuntu的同学可以直接安装uuid-dev : apt-get install uuid-dev

2、安装 安装ZMQ 2.1.7
 ./autogen.sh 
1)、configure: error: cannot link with -luuid, install uuid-dev.
yum   install  uuid  uuid-devel   
安装后还是错误。
解决办法 :
libuuid is part of the util-linux-ng package since version 2.15.1 and is available from  
 ftp://ftp.kernel.org/pub/linux/utils/util-linux/v2.21/util-linux-2.21.1.tar.gz  
安装了  util-linux-2.21.1.tar.gz 后, 就OK了。

2)、./autogen.sh 安装缺少libtool:
 yum install libtool
 
 3、安装 jzmq :

1)configure 前 
export CPPFLAGS=-I/usr/local/zeromq-2.1.7/include/
export LDFLAGS=-L/usr/local/zeromq-2.1.7/lib/
否则报:configure: error: cannot find zmq.h

2)报错
configure: error: cannot link with -lzmq

指定CC路径就好了:
./configure CC=/usr/bin/gcc

4、error while loading shared libraries: libz.so.1: 
cannot open shared object file: No such file or directory
sudo yum install zlib.i686 

5、启动zookeeper找不到主机: 在这个例子里面 主机名是T214.joy.cc,在 /etc/sysconfig/network定义的主机名,我们需要

使用加入到hosts文件>

192.168.1.214  T214.joy.cc

2013-07-09 13:59:20 supervisor [ERROR] Error on initialization of server mk-supervisor
java.net.UnknownHostException: T214.joy.cc: T214.joy.cc
        at java.net.InetAddress.getLocalHost(InetAddress.java:1454)
        at backtype.storm.util$local_hostname.invoke(util.clj:153)
        at backtype.storm.daemon.supervisor$supervisor_data.invoke(supervisor.clj:180)
        at backtype.storm.daemon.supervisor$fn__4733$exec_fn__1207__auto____4734.invoke(supervisor.clj:324)
        at clojure.lang.AFn.applyToHelper(AFn.java:167)
        at clojure.lang.AFn.applyTo(AFn.java:151)
        at clojure.core$apply.invoke(core.clj:601)
        at backtype.storm.daemon.supervisor$fn__4733$mk_supervisor__4758.doInvoke(supervisor.clj:320)
        at clojure.lang.RestFn.invoke(RestFn.java:436)
        at backtype.storm.daemon.supervisor$_launch.invoke(supervisor.clj:467)
        at backtype.storm.daemon.supervisor$_main.invoke(supervisor.clj:494)
        at clojure.lang.AFn.applyToHelper(AFn.java:159)
        at clojure.lang.AFn.applyTo(AFn.java:151)
        at backtype.storm.daemon.supervisor.main(Unknown Source)
2013-07-09 13:59:20 util [INFO] Halting process: ("Error on initialization")

6、防火墙的问题:

hadoop集群环境(linux系统)中最好关闭防火墙,不然会出现很多问题,例如namenode找不到datanode等。

如果不关闭防火墙,客户端使用API操作HDFS以及ZooKeeper,可能就会出现下面常见的两种异常:

1.使用API操作HDFS时会出现异常:java.net.NoRouteToHostException: No route to host

2.使用API操作ZK时会出现异常:org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for xxxx

 

解决方法:

查看防火墙是否开启:

service iptables status

使用root权限登陆后,输入关闭防火墙命令,每个运行hadoop和zk的都要关(两条命令任选一个):

/etc/init.d/iptables stop

service iptables stop

25489 supervisor
25537 Jps
19035 QuorumPeerMain
[root@T206 logs]# 

[root@T214 storm-0.8.1]# jps
8084 nimbus
8060 core
21615 ZooKeeperMain
21586 QuorumPeerMain
8216 Jps
[root@T214 storm-0.8.1]# 

4.   向集群提交任务

     Github里有一个例子叫做storm_starter,我们可以用它来做测试。

按照http://github.com/nathanmarz/storm-starter,执行这个程序需要用lein,我们用eclipse代替lein。打包后进行上传。

使用maven或lein解决storm-starter的包依赖问题,但是由于GFW原因,可能有些依赖包无法获取。故这里采用eclipse自导入包的方法来编译storm-starter.

1)下载twitter4j :twitter4j-2.2.6.zip和storm-starter-master.zip

2) 追加源文件storm-start/src/jvm/storm
    使用eclipse建立java project。追加twitter4j和storm的jar文件。
    File-> New -> Java Project ->随便取个名字-> Next -> Libraries -> add External JARs…-> 追加twitter4j和storm的jar文件(

     /path/to/twitter4j/lib/*.jar

     /path/to/storm/lib/*.jar

     /path/to/storm/storm-{version}.jar)

     -> Finsh

     或者可以在建java 项目完成后添加twitter4j和storm的jar文件:

    项目名-> 右键->properties->java build path->Libraries -> add External JARs->追加twitter4j和storm的jar文件

    导入storm-start
    File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/src/jvm/storm -> Browse(Info floder)  -> xxx -> src -> OK -> “storm” 和 “Create top-level folder”前打勾 -> Finish

3) 追加源文件storm-start/multilang/resources(python 文件word count用)
    File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/multilang/resources -> Browse(Info floder)  -> xxx -> OK -> check “resources” and “Create top-level folder” -> Finish
2个源文件都追加好之后,eclipse左边显示如下图:

1.jpg

如果使用的是storm-0.8.1,下面这行代码会报错,下载0.8.2版本即可解决

import backtype.storm.task.IMetricsContext;

如果下面这行报错,说明没有commons-collections.jar包,下载地址:http://commons.apache.org/proper/commons-collections/download_collections.cgi

import org.apache.commons.collections.buffer.CircularFifoBuffer;

最下载稳定包:commons-collections-3.2.1-bin,解压后追加commons-collections-3.2.1.jar文件就ok:

 项目名-> 右键->properties->java build path->Libraries -> add External JARs->commons-collections-3.2.1.jar

4) JAR export
    File -> Export -> JAR -> JAR file -> 取消 “.classpath” ,“.project” 和 “<.settings” ->的勾 browse -> path/to/export/name.jar -> Finish (忽视 warnings)

可能会报错说PrintSampleStream和TwitterSampleSpout这两个类找不到,将这两个类的注释取消掉即可。
1.jpg

Storm-starter本地运行

这里我们测试Storm-starter项目的wordCount,依然用我们打包好的storm-test.jar 。通过阅读源码我们可以知道,WordCountTopology在编写的时候如果在命令后不加参数,则是一个本地模式的WordCount,而如果有一个参数,也就是集群上的计算拓扑(Topology)名,它就会是一个在集群上跑的计算拓扑。。这里我们首先介绍本地运行

# storm jar  storm-test.jar  storm.starter.WordCountTopology

如果出现下面的文字,说明运行成功了;

# storm jar  storm-test.jar  storm.starter.WordCountTopology13973 [Thread-34] INFO  backtype.storm.daemon.executor  - Processing received message source: spout:10, stream: default, id: {}, [snow white and the seven dwarfs]13974 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["snow"]13974 [Thread-26] INFO  backtype.storm.daemon.executor  - Processing received message source: spout:8, stream: default, id: {}, [an apple a day keeps the doctor away]13975 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["white"]13976 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["a"]13976 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["a"]13976 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [a, 34]13977 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["and"]13977 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["and"]13977 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [and, 64]13978 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["day"]13978 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["day"]13978 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [day, 34]13979 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["the"]13979 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["the"]13979 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [the, 134]13917 [Thread-17] INFO  backtype.storm.util  - Async loop interrupted!13985 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["seven"]13986 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["keeps"]13988 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["the"]13988 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["the"]13988 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [the, 135]13989 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["dwarfs"]13989 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["dwarfs"]13989 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [dwarfs, 29]13990 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["doctor"]
13991 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["away"]

问题:

运行bin/storm jar  storm-test.jar  storm.starter.WordCountTopology报错:
Exception in thread "main" java.lang.UnsupportedClassVersionError: Filter(Unsupported major.minor version 50.0).

解决:

1)可能是java的版本和javac不一致。

java -version和javac -version看看版本是否一致

解决的方法在PATH 最前面加上 $JAVA_HOME:$PATH

vi /etc/profile
JAVA_HOME=/usr/java/jdk1.6.0_13/CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:PATH=$JAVA_HOME/bin:$PATH:$HOME/bin

2)解决Unsupported major.minor version 51.0错误

这个因为你的eclipse使用java 1.7JDK编译class文件(导出的storm-test.jar),而安装storm的机器上安装的JDK是1.6

解决:打开eclipse中项目上的属性—java compiler–选择一个合适的版本后重新编译即可。

具体步骤

解决:项目——>右键——>属性——>Java Compiler——>Compiler Compliance Level——>选择你使用的JDK版本-(1.6)—–>应用。

向集群提交任务

  1. 启动Storm Topology:其中,allmycode.jar是包含Topology实现代码的jar包,org.me.MyTopology的main方法是Topology的入口,arg1、arg2和arg3为org.me.MyTopology执行时需要传入的参数。

storm jar allmycode.jar org.me.MyTopology arg1 arg2 arg3

2. 停止Storm Topology:

storm kill {toponame}

其中,{toponame}为Topology提交到Storm集群时指定的Topology任务名称。

3.4 参考资料

https://github.com/nathanmarz/storm/

https://github.com/nathanmarz/storm/wiki

https://github.com/nathanmarz/storm/wiki/Setting-up-development-environment

https://github.com/nathanmarz/storm-starter/

Twitter Storm下载中文镜像
Twitter Storm: 配置开发环境

Storm集群安装部署步骤【详细版】

centos的twitter storm安装和storm-start的本地运行

Storm 环境配置及Storm starter运行

Storm环境部署

此文通过亲身体验和总结网上资料

转自:http://blog.csdn.net/hguisu/article/details/9246859

原创文章,作者:s19930811,如若转载,请注明出处:http://www.178linux.com/2632

(0)
上一篇 2015-04-04 22:03
下一篇 2015-04-04 22:09

相关推荐

  • 加密算法、https、dns(主从、视图)

    第九周 2018/1/29

    2018-01-29
  • 文件权限

    文件属主、文件属组、
    文件权限、目录权限、特殊权限

    2018-03-13
  • 网络管理

    说起网络,大家都不陌生,因为大家天天上网嘛,连路边老大爷都会聊微信了,但是我们所了解的网络只是茫茫网络大海中的一叶扁舟,网络的范围其实有很大,里面涉及的东西也非常多,现在让小编带你一点一点去了解它吧,相信大家看了之后,会有不一样的体会呢! 1、 什么是网络? 网络是由节点和连线构成,表示诸多对象及其相互联系。在数学上,网络是一种图,一般认为专指加权图。网络除…

    2017-09-02
  • Http协议中的各种长度限制总结

    HTTP1.0的格式 request(HTTP请求消息)结构:一个请求行.部分消息头,以及实体内容,其中的一些消息内容都是可选择的.消息头和实体内容之间要用空行分开. GET /index.html HTTP/1.1 //请求头,下面都是消息头.Accept: */*Accept-Languang:en-usConnection:keep-aliveHost…

    Linux干货 2015-04-04
  • 逻辑卷(LVM)管理实例详解

    LVM基本术语 下面是LVM需要了解的基本术语:    物理卷(PV physical volume): 它可以是物理硬盘上的分区,也可以是整块物理硬盘;  卷组(VG volume group): 建立在物理卷之上,一个卷组至少包括一个物理卷,可以动态增删物理卷;  逻辑卷(LV logical volume):建立…

    Linux干货 2016-09-01
  • CentOS计划任务详解

    一、计划任务应用场景:        需要每天对服务器上的数据进行备份,但是白天服务器的访问量较大,服务器承受着较大的压力,备份任务只能在夜晚服务器较空闲时才能进行。或者需要临时在某时间点执行一个任务等,都需要用到计划任务的功能。 二、计划任务分类:    &…

    Linux干货 2016-09-09