配置hadoop的時候遇到幾個問題,有的甚至困擾了好久,在這里記錄一下
1.配置java的時候,其中有一步source /etc/source,由于我用的的shell是fish,沒有source這一步,因此總是出錯,最后發(fā)現(xiàn)退出就可以了
2.在ssh連接的時候,vmware虛擬機中,需要將網(wǎng)絡連接模式從NAT改成橋聯(lián),這樣IP地址也會改變,也就可以從其他linux下連接進來
3.在用ssh連接的時候,有兩個機子一直出現(xiàn),permession denied,發(fā)現(xiàn),是由于用戶名不一致。shandyone的機子連接到shandytwo的機子時,默認的用戶是shandyone,改成shandytwo@11.0.2.15就可以了
4.java的版本必須一致,這樣才不會出錯
5.在ssh的過程中,碰見
6.設置完ssh公鑰之后要記得重啟,service ssh restart
7.ubuntu 無法解析主機的解決方法
在配置的過程中,只修改了hostname而沒有修改hosts里面的值,導致經(jīng)常提示解析不了
- 防火墻需要關閉,不然會出現(xiàn)datanode開后又自動關閉 教你如何開啟/關閉ubuntu防火墻
9.碰到創(chuàng)建文件safe mode is on的問題。bin/hadoop dfsadmin -safemode leave(但是這種方法很坑爹,之后hbase可能還會出問題)我的情況是一直不會消失,這么safemode,原因就是數(shù)據(jù)節(jié)點掛在到根目錄上了,所以講hdfs-site.xml里面的namenode和datanode的路徑修改了一下,要注意,要自己創(chuàng)建相關目錄,否則會出錯。 - could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation.