0x00 ? ?準備工作
hadoop-2.6.0.tar.gz以及zookeeper-3.4.8.tar.gz
Apache網站上提供的Hadoop包是32位的,關于如何在64位機器上如何重新編譯Hadoop,請參考我的上一篇文章:編譯Hadoop2.6.0
說明:Hadoop和Zookeeper的工作目錄分別為:
/opt/hadoop-2.6.0
/opt/zookeeper-3.4.8
下圖是關于Hadoop HDFS2.x HA整個架構的描述:
關于Hadoop1.x和Hadoop2.x的異同,這里不再描述,不懂的話請自行Google或參考Apache官方文檔。
0x01 ? ?安裝環境介紹
我們用5個節點來完成Hadoop2.6.0的分布式安裝。如下圖:
我們用1來表示每個節點所擁有的角色。
NN: NameNode ? ?DN: DataNode ? ?JN: JournalNode ? ?ZK: Zookeeper
ZKFC: DFSZKFailoverController
RM: ResourceManager ? ?NM: NodeManager
0x02 ? ?安裝
--安裝前準備
[1] 修改主機的hostname
修改hostname,只修改一處就行![/etc/sysconfig/network]
這里糾正一下上一篇文章里提到的修改hostname的問題。如果按照上次修改hostname的方法,到最后運行Hadoop的時候,會遇到各種問題。因此hostname這個地方還是非常重要的!
[2] 修改hosts文件(/etc/hosts)
添加以下記錄:
192.168.187.128? nn.athrob.com
192.168.187.129? snn.athrob.com
192.168.187.130? dn1.athrob.com
192.168.187.131? dn2.athrob.com
192.168.187.132? dn3.athrob.com
[3] JDK環境變量設置
這個不多說,不會請百度或Google。
--文件配置
關于一些配置文件內容的理解,可以參考hadoop的user guide。
我們采用在一臺機器上修改好相應的配置文件,然后遠程拷貝到其他機器的方法來完成Hadoop2.6.0的完全分布式安裝。
以下所有的配置,均在Node1這個節點上配置,然后在遠程拷貝到相應的其他節點上去。
[1] 修改 hadoop-env.sh,yarn-env.sh中的JAVA_HOME
[2] 修改hdfs-site.xml,配置如下:
[3] 修改core-site.xml,配置如下:
[4] 修改mapred-site.xml,配置如下:
[5]? 修改yarn-site.xml,配置如下:
[6] 修改slaves,配置如下:
--Zookeeper配置
從前面可以看到,Zookeeper節點在Node1,Node2,Node3上。因此我們也是在Node1上配置好之后,再遠程拷貝到Node2和Node3上。
首先加上Zookeeper環境變量
export ZK_HOME=/opt/zookeeper-2.4.8
export PATH=$PATH:$ZK_HOME/bin
關于Zookeeper的配置內容理解,可以參考zookeeper的guide。
zookeeper的配置目錄為:zookeeper-3.4.8/conf
配置文件為:zoo.cfg
解壓好的zookeeper沒有zoo.cfg這個文件,但是有zoo_sample.cfg,因此我們復制它就OK。
cp zoo_sample.cfg zoo.cfg
注釋掉dataDir=/tmp/zookeeper
添加
dataDir=/opt/zookeeper
server.1=nn.athrob.com:2888:3888
server.2=snn.athrob.com:2888:3888
server.3=dn1.athrob.com:2888:3888
由于/opt/zookeeper這個文件夾不存在,因此,我們要創建一個。
mkdir /opt/zookeeper
從zookeeper的文檔我們可以看到,在它的工作目錄下,需要一個myid的文件,但是這個文件現在是沒有的,因此我們要創建一個。
touch /opt/zookeeper/myid
文件內容添加server的ID:1
因此,我們把zookeeper的配置文件從Node1拷貝到Node2,Node3之后,也要對應的修改myid文件中的內容。
由于前面我們配置的是:
【server.2=snn.athrob.com:2888:3888 】 ? --對應Node2】
【server.3=dn1.athrob.com:2888:3888 】 ? --對應Node3】
所以,Node2中myid文件內容是2;相應的Node3中myid文件內容就是3。
--運行
$在運行之前,我們需要吧Hadoop整個目錄從Node1拷貝到Node2,Node3,Node4,Node5.
scp -r hadoop-2.6.0 root@snn.athrob.com:/opt/
scp -r hadoop-2.6.0 root@dn1.athrob.com:/opt/
scp -r hadoop-2.6.0 root@dn2.athrob.com:/opt/
scp -r hadoop-2.6.0 root@dn3.athrob.com:/opt/
$以及拷貝Zookeeper和相應的配置目錄
scp -r /opt/zookeeper-3.4.8 root@snn.athrob.com:/opt/
scp -r /opt/zookeeper-3.4.8 root@dn1.athrob.com:/opt/
注:拷貝zookeeper的安裝目錄
scp -r /opt/zookeeper/ root@snn.athrob.com:/opt/
scp -r /opt/zookeeper/ root@snn.athrob.com:/opt/
注:拷貝zookeeper的dataDir,不要忘記在Node2,Node3上修改myid文件中的內容!
$在Node1,Node2,Node3節點上啟動Zookeeper
zkServer.sh start
$在Node3,Node4,Node5節點上啟動JournalNode
/opt/hadoop-2.6.0/sbin/hadoop-daemon.sh start journalnode
$在Node1節點上格式化NameNode
/opt/hadoop-2.6.0/bin/hadoop namenode -format
$然后啟動該NameNode
/opt/hadoop-2.6.0/sbin/hadoop-daemon.sh start namenode
$在沒有格式化NameNode的Node2節點上復制Node1節點的fsimage
/opt/hadoop-2.6.0/bin/hdfs namenode -bootstrapStandby
注:在執行-bootstrapStandby之前請確保Node1節點上的NameNode已經正常啟動!
$然后在其中一個NameNode節點(Node1或Node2)上初始化zkfc
/opt/hadoop-2.6.0/bin/hdfs zkfc -formatZK
如果沒有初始化zkfc,啟動完成后發現log日志里報這樣一個錯誤:
org.apache.hadoop.ha.ZKFailoverController: Unable to start failover controller. Parent znode does not exist.Run with -formatZK flag to initialize ZooKeeper.
#############################################################
如果沒有任何問題的話,hadoop就能順利啟動運行了!
/opt/hadoop-2.6.0/sbin/start-dfs.sh
/opt/hadoop-2.6.0/sbin/start-yarn.sh
#############################################################
不足之處,請批評指正。
如有問題,請私信聯系。
謝謝!