Hadoop0.23をCentOSへインストールしてみる。
# cd /usr/local
# tar xf ~hishidama/Desktop/hadoop-0.23.0.tar.gz
# tar xf ~hishidama/Desktop/hadoop-0.23.0-src.tar.gz ←ついでにソースも
~/.bashrc
の最後尾に以下のコマンドを追加する。export JAVA_HOME=/usr/java/default export PATH=$JAVA_HOME/bin:$PATH export HADOOP_COMMON_HOME=/usr/local/hadoop-0.23.0 export HADOOP_HDFS_HOME=$HADOOP_COMMON_HOME export HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME export HADOOP_CONF_DIR=$HADOOP_COMMON_HOME/conf
$ cd $HADOOP_COMMON_HOME $ bin/yarn $ bin/yarn version $ bin/yarn jar hadoop-mapreduce-examples-0.23.0.jar pi 4 2000
yarnコマンドで実行しているけれど、このサンプル自体は従来のMapReduceプログラム。
何も設定を行わない(confを何もいじらない)状態でMapReduceは実行できるようだ。
Single
Node Clusterのページを見るとconf配下にxmlファイルを置いた上でResourceManagerとNodeManagerを起動するよう書かれているが
MapReduceを実行するだけなら起動しなくても大丈夫。
YARNを試す場合は起動させる必要があるが、confの下(xmlファイル)はデフォルトのままでも大丈夫そう。
Windowsで作ったHadoop0.23用のWordCountを実行してみる。
$ cd /tmp $ mkdir wordcount $ cd wordcount
$ cd /tmp/wordcount $ mkdir input $ vi test.txt
$ $HADOOP_COMMON_HOME/bin/yarn jar wordcount23.jar sample.WordCount23 input output $ cat output/part*
※これはローカル環境で実行される。→YARN環境で実行する方法