Storm集群安装详解

storm有两种操作模式: 本地模式和远程模式。

本地模式:你可以在你的本地机器上开发测试你的topology, 一切都在你的本地机器上模拟出来; 

远端模式:你提交的topology会在一个集群的机器上执行。

本文以Twitter Storm官方Wiki为基础,详细描述如何快速搭建一个Storm集群,其中,项目实践中遇到的问题及经验总结,在相应章节以“注意事项”的形式给出。

1.   Strom集群组件

       Storm集群中包含两类节点:主控节点(Master Node)和工作节点(Work Node)。其分别对应的角色如下:

1. 主控节点(Master Node)上运行一个被称为Nimbus的后台程序,它负责在Storm集群内分发代码,分配任务给工作机器,并且负责监控集群运行状态。Nimbus的作用类似于Hadoop中JobTracker的角色。

2. 每个工作节点(Work Node)上运行一个被称为Supervisor的后台程序。Supervisor负责监听从Nimbus分配给它执行的任务,据此启动或停止执行任务的工作进程。每一个工作进程执行一个Topology的子集;一个运行中的Topology由分布在不同工作节点上的多个工作进程组成。

1.png 

Storm集群组件

Nimbus和Supervisor节点之间所有的协调工作是通过Zookeeper集群来实现的。此外,Nimbus和Supervisor进程都是快速失败(fail-fast)和无状态(stateless)的;Storm集群所有的状态要么在Zookeeper集群中,要么存储在本地磁盘上。这意味着你可以用kill -9来杀死Nimbus和Supervisor进程,它们在重启后可以继续工作。这个设计使得Storm集群拥有不可思议的稳定性。

2.   Strom集群安装

这一章节将详细描述如何搭建一个Storm集群。下面是接下来需要依次完成的安装步骤:

1. 搭建Zookeeper集群;

2. 安装Storm依赖库;

3. 下载并解压Storm发布版本;

4. 修改storm.yaml配置文件;

5. 启动Storm各个后台进程。

2.1 安装java

安装java:
一、安装
创建安装目录,在/usr/java下建立安装路径,并将文件考到该路径下: 
# mkdir /usr/java
1、 jdk-6u13-linux-i586.bin 这个是自解压的文件,在linux上安装如下: 
# chmod 755  jdk-6u13-linux-i586.bin 
# ./ jdk-6u13-linux-i586.bin (注意,这个步骤一定要在 jdk-6u13-linux-i586.bin所在目录下)
在按提示输入yes后,jdk被解压。
 出现一行字:Do you aggree to the above license terms? [yes or no]
  安装程序在问您是否愿意遵守刚才看过的许可协议。当然要同意了,输入"y" 或 "yes" 回车。

二、配置
 #vi /etc/profile
  在里面添加如下内容

export JAVA_HOME=/usr/java/jdk1.6.0_13
export JAVA_BIN=/usr/java/jdk1.6.0_13/bin
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME JAVA_BIN PATH CLASSPATH

让/etc/profile文件修改后立即生效 ,可以使用如下命令:
 # . /etc/profile
注意: . 和 /etc/profile 有空格. 
 
重启测试
  java -version
  屏幕输出:

java version "jdk1.6.0_02"
  Java(TM) 2 Runtime Environment, Standard Edition (build jdk1.6.0_02)
  Java HotSpot(TM) Client VM (build jdk1.6.0_02, mixed mode)

问题:
1)安装jdk,而不是jre啊,jre没有javac

如果使用yum install java 安装,没有安装javac的。

2)安装java的版本和javac版本要一致。否则执行jar包的时候会报错找不到main函数:

Exception in thread "main" java.lang.UnsupportedClassVersionError

2.1 搭建Zookeeper集群

Storm使用Zookeeper协调集群,由于Zookeeper并不用于消息传递,所以Storm给Zookeeper带来的压力相当低。大多数情况下,单个节点的Zookeeper集群足够胜任,不过为了确保故障恢复或者部署大规模Storm集群,可能需要更大规模节点的Zookeeper集群(对于Zookeeper集群的话,官方推荐的最小节点数为3个)。在Zookeeper集群的每台机器上完成以下安装部署步骤:

1. 根据Zookeeper集群的负载情况,合理设置Java堆大小,尽可能避免发生swap,导致Zookeeper性能下降。保守起见,4GB内存的机器可以为Zookeeper分配3GB最大堆空间。

2. 下载后解压安装Zookeeper包,官方下载链接为http://hadoop.apache.org/zookeeper/releases.html

3. 根据Zookeeper集群节点情况,在conf目录下创建Zookeeper配置文件zoo.cfg:

tickTime=2000
dataDir=/var/zookeeper/
clientPort=2181
initLimit=5
syncLimit=2
server.1=zoo1:2888:3888
server.2=zoo2:2888:3888
server.3=zoo3:2888:3888

其中,dataDir指定Zookeeper的数据文件目录;其中server.id=host:port:port,id是为每个Zookeeper节点的编号,保存在dataDir目录下的myid文件中,zoo1~zoo3表示各个Zookeeper节点的hostname,第一个port是用于连接leader的端口,第二个port是用于leader选举的端口。

4. 在dataDir目录下创建myid文件,文件中只包含一行,且内容为该节点对应的server.id中的id编号。

5. 启动Zookeeper服务:

java -cp zookeeper.jar:lib/log4j-1.2.15.jar:conf \ org.apache.zooke
eper.server.quorum.QuorumPeerMain zoo.cfg

  

或者

bin/zkServer.sh start

输入jps命令查看进程:namenode上显示为(本次为单机配置):19361 QuorumPeerMain21691 Jps其中,QuorumPeerMain是zookeeper进程,启动正常。3、查看状态:zookeeper-3.4.3/bin/zkServer.sh statusJMX enabled by defaultUsing config: /home/hadooptest/zookeeper-3.4.3/bin/../conf/zoo.cfgMode: standalone

6. 通过Zookeeper客户端测试服务是否可用:

java -cp zookeeper.jar:src/java/lib/log4j-1.2.15.jar:conf:src/java/lib/jline-0.9.94.jar \ 
org.apache.zookeeper.ZooKeeperMain -server 127.0.0.1:2181

或者

bin/zkCli.sh -server 127.0.0.1:2181

7、停止zookeeper进程:zookeeper-3.4.3/bin/zkServer.sh stop

注意事项:

由于Zookeeper是快速失败(fail-fast)的,且遇到任何错误情况,进程均会退出,因此,最好能通过监控程序将Zookeeper管理起来,保证
Zookeeper退出后能被自动重启。详情参考这里。
Zookeeper运行过程中会在dataDir目录下生成很多日志和快照文件,而Zookeeper运行进程并不负责定期清理合并这些文件,导致占用大量磁
盘空间,因此,需要通过cron等方式定期清除没用的日志和快照文件。详情参考这里。具体命令格式如下:java -cp 
zookeeper.jar:log4j.jar:conf org.apache.zookeeper.server.PurgeTxnLog <dataDir> <snapDir> -n <count>

2.2 安装Storm依赖库

接下来,需要在Nimbus和Supervisor机器上安装Storm的依赖库,具体如下:

1. ZeroMQ 2.1.7 – 请勿使用2.1.10版本,因为该版本的一些严重bug会导致Storm集群运行时出现奇怪的问题。少数用户在2.1.7版本会遇到”IllegalArgumentException”的异常,此时降为2.1.4版本可修复这一问题。

2. JZMQ

3. Java 6 

4. Python 2.6.6

5. unzip

以上依赖库的版本是经过Storm测试的,Storm并不能保证在其他版本的Java或Python库下可运行。

2.2.1 安装ZMQ 2.1.7

下载后编译安装ZMQ:

wget http://download.zeromq.org/zeromq-2.1.7.tar.gz
tar -xzf zeromq-2.1.7.tar.gz
cd zeromq-2.1.7
./configure
make
sudo make install

注意事项:

如果安装过程报错uuid找不到,则通过如下的包安装uuid库:
sudo yum install e2fsprogsl  -b current
sudo yum install e2fsprogs-devel  -b current

2.2.2 安装JZMQ

下载后编译安装JZMQ:

git clone https://github.com/nathanmarz/jzmq.git cd jzmq ./autogen.
sh ./configure make sudo make install

为了保证JZMQ正常工作,可能需要完成以下配置:

  1. 正确设置 JAVA_HOME环境变量

  2. 安装Java开发包

  3. 升级autoconf

  4. 如果你是Mac OSX,参考这里

注意事项:

如果运行 ./configure 命令出现问题,参考这里。

2.2.3 安装Java 6

    (上面已经提到安装了)

2.2.4 安装Python2.6.6

  1. 下载Python2.6.6:

  2. wget http://www.python.org/ftp/python/2.6.6/Python-2.6.6.tar.bz

2. 编译安装Python2.6.6:

tar –jxvf Python-2.6.6.tar.bz2
cd Python-2.6.6
./configure
make
make install

3. 测试Python2.6.6:

python -V
Python 2.6.6

2.2.5 安装unzip

  1. 如果使用RedHat系列Linux系统,执行以下命令安装unzip:

  2. apt-get install unzip

2. 如果使用Debian系列Linux系统,执行以下命令安装unzip:

yum install unzip

2.3 下载并解压Storm发布版本

下一步,需要在Nimbus和Supervisor机器上安装Storm发行版本。

  1. 下载Storm发行版本,推荐使用Storm0.8.1:

  2. wget https://github.com/downloads/nathanmarz/storm/storm-0.8.1.zip

2. 解压到安装目录下:

unzip storm-0.8.1.zip

2.4 修改storm.yaml配置文件

Storm发行版本解压目录下有一个conf/storm.yaml文件,用于配置Storm。默认配置在这里可以查看。conf/storm.yaml中的配置选项将覆盖defaults.yaml中的默认配置。以下配置选项是必须在conf/storm.yaml中进行配置的:

1) storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:

storm.zookeeper.servers:
- “111.222.333.444″
- “555.666.777.888″

如果Zookeeper集群使用的不是默认端口,那么还需要storm.zookeeper.port选项

2) storm.local.dir: Nimbus和Supervisor进程用于存储少量状态,如jars、confs等的本地磁盘目录,需要提前创建该目录并给以足够的访问权限。然后在storm.yaml中配置该目录,如:

storm.local.dir: "/home/admin/storm/workdir"

3) java.library.path: Storm使用的本地库(ZMQ和JZMQ)加载路径,默认为”/usr/local/lib:/opt/local/lib:/usr/lib”,一般来说ZMQ和JZMQ默认安装在/usr/local/lib 下,因此不需要配置即可。

4) nimbus.host: Storm集群Nimbus机器地址,各个Supervisor工作节点需要知道哪个机器是Nimbus,以便下载Topologies的jars、confs等文件,如:

nimbus.host: "111.222.333.444"

5) supervisor.slots.ports: 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量。每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如:

supervisor.slots.ports:
    - 6700
    - 6701
    - 6702
    - 6703

这个脚本文件写的不咋地,所以在配置时一定注意在每一项的开始时要加空格,冒号后也必须要加空格,否则storm就不认识这个配置文件了,切记切记。

2.5 启动Storm各个后台进程

最后一步,启动Storm的所有后台进程。和Zookeeper一样,Storm也是快速失败(fail-fast)的系统,这样Storm才能在任意时刻被停止,并且当进程重启后被正确地恢复执行。这也是为什么Storm不在进程内保存状态的原因,即使Nimbus或Supervisors被重启,运行中的Topologies不会受到影响。

以下是启动Storm各个后台进程的方式:

  1. Nimbus: 在Storm主控节点上运行”bin/storm nimbus >/dev/null 2>&1 &”启动Nimbus后台程序,并放到后台执行;

  2. Supervisor: 在Storm各个工作节点上运行”bin/storm supervisor >/dev/null 2>&1 &”启动Supervisor后台程序,并放到后台执行;

  3. UI: 在Storm主控节点上运行”bin/storm ui >/dev/null 2>&1 &”启动UI后台程序,并放到后台执行,启动后可以通过http://{nimbus host}:8080观察集群的worker资源使用情况、Topologies的运行状态等信息。

注意事项:

启动Storm后台进程时,需要对conf/storm.yaml配置文件中设置的storm.local.dir目录具有写权限。
Storm后台进程被启动后,将在Storm安装部署目录下的logs/子目录下生成各个进程的日志文件。
经测试,Storm UI必须和Storm Nimbus部署在同一台机器上,否则UI无法正常工作,因为UI进程会检查本机是否存在Nimbus链接。
为了方便使用,可以将bin/storm加入到系统环境变量中。

至此,Storm集群已经部署、配置完毕,可以向集群提交拓扑运行了。

3.   安装storm出现的问题

1、 修复/lib/ld-linux.so.2: bad ELF interpreter: No such file or directory问题
    在64系统里执行32位程序如果出现/lib/ld-linux.so.2: 
    bad ELF interpreter: No such file or directory,安装下glic即可
sudo yum install glibc.i686
*注意在安装uuid-dev的时候不同系统安装的名称不一样,使用centeros的同学需要安装yum install libuuid-devel,ubuntu的同学可以直接安装uuid-dev : apt-get install uuid-dev

2、安装 安装ZMQ 2.1.7
 ./autogen.sh 
1)、configure: error: cannot link with -luuid, install uuid-dev.
yum   install  uuid  uuid-devel   
安装后还是错误。
解决办法 :
libuuid is part of the util-linux-ng package since version 2.15.1 and is available from  
 ftp://ftp.kernel.org/pub/linux/utils/util-linux/v2.21/util-linux-2.21.1.tar.gz  
安装了  util-linux-2.21.1.tar.gz 后, 就OK了。

2)、./autogen.sh 安装缺少libtool:
 yum install libtool
 
 3、安装 jzmq :

1)configure 前 
export CPPFLAGS=-I/usr/local/zeromq-2.1.7/include/
export LDFLAGS=-L/usr/local/zeromq-2.1.7/lib/
否则报:configure: error: cannot find zmq.h

2)报错
configure: error: cannot link with -lzmq

指定CC路径就好了:
./configure CC=/usr/bin/gcc

4、error while loading shared libraries: libz.so.1: 
cannot open shared object file: No such file or directory
sudo yum install zlib.i686 

5、启动zookeeper找不到主机: 在这个例子里面 主机名是T214.joy.cc,在 /etc/sysconfig/network定义的主机名,我们需要

使用加入到hosts文件>

192.168.1.214  T214.joy.cc

2013-07-09 13:59:20 supervisor [ERROR] Error on initialization of server mk-supervisor
java.net.UnknownHostException: T214.joy.cc: T214.joy.cc
        at java.net.InetAddress.getLocalHost(InetAddress.java:1454)
        at backtype.storm.util$local_hostname.invoke(util.clj:153)
        at backtype.storm.daemon.supervisor$supervisor_data.invoke(supervisor.clj:180)
        at backtype.storm.daemon.supervisor$fn__4733$exec_fn__1207__auto____4734.invoke(supervisor.clj:324)
        at clojure.lang.AFn.applyToHelper(AFn.java:167)
        at clojure.lang.AFn.applyTo(AFn.java:151)
        at clojure.core$apply.invoke(core.clj:601)
        at backtype.storm.daemon.supervisor$fn__4733$mk_supervisor__4758.doInvoke(supervisor.clj:320)
        at clojure.lang.RestFn.invoke(RestFn.java:436)
        at backtype.storm.daemon.supervisor$_launch.invoke(supervisor.clj:467)
        at backtype.storm.daemon.supervisor$_main.invoke(supervisor.clj:494)
        at clojure.lang.AFn.applyToHelper(AFn.java:159)
        at clojure.lang.AFn.applyTo(AFn.java:151)
        at backtype.storm.daemon.supervisor.main(Unknown Source)
2013-07-09 13:59:20 util [INFO] Halting process: ("Error on initialization")

6、防火墙的问题:

hadoop集群环境(linux系统)中最好关闭防火墙,不然会出现很多问题,例如namenode找不到datanode等。

如果不关闭防火墙,客户端使用API操作HDFS以及ZooKeeper,可能就会出现下面常见的两种异常:

1.使用API操作HDFS时会出现异常:java.net.NoRouteToHostException: No route to host

2.使用API操作ZK时会出现异常:org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for xxxx

 

解决方法:

查看防火墙是否开启:

service iptables status

使用root权限登陆后,输入关闭防火墙命令,每个运行hadoop和zk的都要关(两条命令任选一个):

/etc/init.d/iptables stop

service iptables stop

25489 supervisor
25537 Jps
19035 QuorumPeerMain
[root@T206 logs]# 

[root@T214 storm-0.8.1]# jps
8084 nimbus
8060 core
21615 ZooKeeperMain
21586 QuorumPeerMain
8216 Jps
[root@T214 storm-0.8.1]# 

4.   向集群提交任务

     Github里有一个例子叫做storm_starter,我们可以用它来做测试。

按照http://github.com/nathanmarz/storm-starter,执行这个程序需要用lein,我们用eclipse代替lein。打包后进行上传。

使用maven或lein解决storm-starter的包依赖问题,但是由于GFW原因,可能有些依赖包无法获取。故这里采用eclipse自导入包的方法来编译storm-starter.

1)下载twitter4j :twitter4j-2.2.6.zip和storm-starter-master.zip

2) 追加源文件storm-start/src/jvm/storm
    使用eclipse建立java project。追加twitter4j和storm的jar文件。
    File-> New -> Java Project ->随便取个名字-> Next -> Libraries -> add External JARs…-> 追加twitter4j和storm的jar文件(

     /path/to/twitter4j/lib/*.jar

     /path/to/storm/lib/*.jar

     /path/to/storm/storm-{version}.jar)

     -> Finsh

     或者可以在建java 项目完成后添加twitter4j和storm的jar文件:

    项目名-> 右键->properties->java build path->Libraries -> add External JARs->追加twitter4j和storm的jar文件

    导入storm-start
    File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/src/jvm/storm -> Browse(Info floder)  -> xxx -> src -> OK -> “storm” 和 “Create top-level folder”前打勾 -> Finish

3) 追加源文件storm-start/multilang/resources(python 文件word count用)
    File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/multilang/resources -> Browse(Info floder)  -> xxx -> OK -> check “resources” and “Create top-level folder” -> Finish
2个源文件都追加好之后,eclipse左边显示如下图:

1.jpg

如果使用的是storm-0.8.1,下面这行代码会报错,下载0.8.2版本即可解决

import backtype.storm.task.IMetricsContext;

如果下面这行报错,说明没有commons-collections.jar包,下载地址:http://commons.apache.org/proper/commons-collections/download_collections.cgi

import org.apache.commons.collections.buffer.CircularFifoBuffer;

最下载稳定包:commons-collections-3.2.1-bin,解压后追加commons-collections-3.2.1.jar文件就ok:

 项目名-> 右键->properties->java build path->Libraries -> add External JARs->commons-collections-3.2.1.jar

4) JAR export
    File -> Export -> JAR -> JAR file -> 取消 “.classpath” ,“.project” 和 “<.settings” ->的勾 browse -> path/to/export/name.jar -> Finish (忽视 warnings)

可能会报错说PrintSampleStream和TwitterSampleSpout这两个类找不到,将这两个类的注释取消掉即可。
1.jpg

Storm-starter本地运行

这里我们测试Storm-starter项目的wordCount,依然用我们打包好的storm-test.jar 。通过阅读源码我们可以知道,WordCountTopology在编写的时候如果在命令后不加参数,则是一个本地模式的WordCount,而如果有一个参数,也就是集群上的计算拓扑(Topology)名,它就会是一个在集群上跑的计算拓扑。。这里我们首先介绍本地运行

# storm jar  storm-test.jar  storm.starter.WordCountTopology

如果出现下面的文字,说明运行成功了;

# storm jar  storm-test.jar  storm.starter.WordCountTopology13973 [Thread-34] INFO  backtype.storm.daemon.executor  - Processing received message source: spout:10, stream: default, id: {}, [snow white and the seven dwarfs]13974 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["snow"]13974 [Thread-26] INFO  backtype.storm.daemon.executor  - Processing received message source: spout:8, stream: default, id: {}, [an apple a day keeps the doctor away]13975 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["white"]13976 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["a"]13976 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["a"]13976 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [a, 34]13977 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["and"]13977 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["and"]13977 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [and, 64]13978 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["day"]13978 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["day"]13978 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [day, 34]13979 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["the"]13979 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["the"]13979 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [the, 134]13917 [Thread-17] INFO  backtype.storm.util  - Async loop interrupted!13985 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["seven"]13986 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["keeps"]13988 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["the"]13988 [Thread-20] INFO  backtype.storm.daemon.executor  - Processing received message source: split:6, stream: default, id: {}, ["the"]13988 [Thread-20] INFO  backtype.storm.daemon.task  - Emitting: count default [the, 135]13989 [Thread-32] INFO  backtype.storm.daemon.task  - Emitting: split default ["dwarfs"]13989 [Thread-22] INFO  backtype.storm.daemon.executor  - Processing received message source: split:7, stream: default, id: {}, ["dwarfs"]13989 [Thread-22] INFO  backtype.storm.daemon.task  - Emitting: count default [dwarfs, 29]13990 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["doctor"]
13991 [Thread-28] INFO  backtype.storm.daemon.task  - Emitting: split default ["away"]

问题:

运行bin/storm jar  storm-test.jar  storm.starter.WordCountTopology报错:
Exception in thread "main" java.lang.UnsupportedClassVersionError: Filter(Unsupported major.minor version 50.0).

解决:

1)可能是java的版本和javac不一致。

java -version和javac -version看看版本是否一致

解决的方法在PATH 最前面加上 $JAVA_HOME:$PATH

vi /etc/profile
JAVA_HOME=/usr/java/jdk1.6.0_13/CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:PATH=$JAVA_HOME/bin:$PATH:$HOME/bin

2)解决Unsupported major.minor version 51.0错误

这个因为你的eclipse使用java 1.7JDK编译class文件(导出的storm-test.jar),而安装storm的机器上安装的JDK是1.6

解决:打开eclipse中项目上的属性—java compiler–选择一个合适的版本后重新编译即可。

具体步骤

解决:项目——>右键——>属性——>Java Compiler——>Compiler Compliance Level——>选择你使用的JDK版本-(1.6)—–>应用。

向集群提交任务

  1. 启动Storm Topology:其中,allmycode.jar是包含Topology实现代码的jar包,org.me.MyTopology的main方法是Topology的入口,arg1、arg2和arg3为org.me.MyTopology执行时需要传入的参数。

storm jar allmycode.jar org.me.MyTopology arg1 arg2 arg3

2. 停止Storm Topology:

storm kill {toponame}

其中,{toponame}为Topology提交到Storm集群时指定的Topology任务名称。

3.4 参考资料

https://github.com/nathanmarz/storm/

https://github.com/nathanmarz/storm/wiki

https://github.com/nathanmarz/storm/wiki/Setting-up-development-environment

https://github.com/nathanmarz/storm-starter/

Twitter Storm下载中文镜像
Twitter Storm: 配置开发环境

Storm集群安装部署步骤【详细版】

centos的twitter storm安装和storm-start的本地运行

Storm 环境配置及Storm starter运行

Storm环境部署

此文通过亲身体验和总结网上资料

转自:http://blog.csdn.net/hguisu/article/details/9246859

原创文章,作者:s19930811,如若转载,请注明出处:http://www.178linux.com/2632

(0)
上一篇 2015-04-04 22:03
下一篇 2015-04-04 22:09

相关推荐

  • 2016.08.04学习笔记

    文本管理工具     1.cat:查看文件,读取键盘输入         -A:查看文件所有信息         -n:显示行数   &nb…

    Linux干货 2016-08-08
  • mariadb基础应用

    mariadb基础应用 一、 前言 MariaDB is one of the most popular database servers in the world. It’s made by the original developers of MySQL and guaranteed to stay open source. Notable users …

    Linux干货 2016-12-16
  • Linux中find常见用法示例

    ·find   path   -option   [   -print ]   [ -exec   -ok   command ]   {} \; find命令的参数; pathname: find命…

    Linux干货 2017-04-18
  • 细数Linux发行版

    什么是Linux 广义上讲:Linux内核+应用程序狭义上讲:Linux内核  > Linux内核指的是我们通常所说的Kernel,主要用于负责系统调用、进程管理、内存管理、文件系统管理等功能。  应用程序指的是由GNU组织提供的开源的、通用的应用程序,如gcc、glibc、vi等。 我们平常所说的Linux,通常指广义层面上的Li…

    Linux干货 2017-08-30
  • 马哥教育网络班22期+第1周课程练习

    1、描述计算机的组成及其功能。     计算机由五大功能部分组成(冯诺依曼体系):运算器、控制器、储存器、输入设备、输出设备,对应到具体的硬件设备如下:     CPU    :    包含运算器、控…

    Linux干货 2016-08-15
  • N25-第二周作业

    1、linux上的文件管理类命令都有哪些,其常用的使用方法及其相关示例演示 linux上处理目录的常用命令:     ls :列出目录     cd :切换目录     pwd:显示当前工作路径    &nbs…

    Linux干货 2016-12-13