第八章:Hadoop編譯源碼
第八章:Hadoop編譯源碼
(作者:Memories)
一、前期準備工作
1)CentOS聯網
配置CentOS能連接外網。Linux虛擬機ping www.baidu.com 是暢通的
注意:採用root角色編譯,減少文件夾許可權出現問題
2)jar包準備(hadoop源碼、JDK8、maven、ant 、protobuf)
(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz
百度雲鏈接:https://pan.baidu.com/s/1zQbjnu8p2bfGNKfFgMisCQ 密碼:oqiq
二、jar包安裝
0)注意:所有操作必須在root用戶下完成
1)JDK解壓、配置環境變數 JAVA_HOME和PATH,驗證java-version(如下都需要驗證是否配置成功)
前面的教程我們已經安裝,這裡不在重複。
驗證命令:java -version
2)Maven解壓、配置 MAVEN_HOME和PATH。
[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml
<mirrors>
<!-- mirror
| Specifies a repository mirror site to use instead of a given repository. The repository that
| this mirror serves has an ID that matches the mirrorOf element of this mirror. IDs are used
| for inheritance and direct lookup purposes, and must be unique across the set of mirrors.
|
<mirror>
<id>mirrorId</id>
<mirrorOf>repositoryId</mirrorOf>
<name>Human Readable Name for this Mirror.</name>
<url>http://my.repository.com/repo/path</url>
</mirror>
-->
<mirror>
<id>nexus-aliyun</id>
<mirrorOf>central</mirrorOf>
<name>Nexus aliyun</name>
<url>http://maven.aliyun.com/nexus/content/groups/public</url>
</mirror>
</mirrors>
[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin
[root@hadoop101 software]#source /etc/profile
驗證命令:mvn -version
3)ant解壓、配置 ANT _HOME和PATH。
[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile
#ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin
[root@hadoop101 software]#source /etc/profile
驗證命令:ant -version
4)安裝 glibc-headers 和 g++ 命令如下:
[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++
5)安裝make和cmake
[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake
6)解壓protobuf ,進入到解壓後protobuf主目錄,/opt/module/protobuf-2.5.0
然後相繼執行命令:
[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/
[root@hadoop101 protobuf-2.5.0]#./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig
[root@hadoop101 hadoop-dist]# vi /etc/profile
#LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH
[root@hadoop101 software]#source /etc/profile
驗證命令:protoc --version
7)安裝openssl庫
[root@hadoop101 software]#yum install openssl-devel
8)安裝 ncurses-devel庫:
[root@hadoop101 software]#yum install ncurses-devel
到此,編譯工具安裝基本完成。
三、編譯源碼
1)解壓源碼到/opt/目錄
[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
2)進入到hadoop源碼主目錄
[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src
3)通過maven執行編譯命令
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
等待時間30分鐘左右,最終成功是全部SUCCESS。
4)成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下。
[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target
四、常見的問題及解決方案
1)MAVEN install時候JVM內存溢出
處理方式:在環境配置文件和maven的執行文件均可調整MAVEN_OPT的heap大小。(詳情查閱MAVEN 編譯 JVM調優問題,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
2)編譯期間maven報錯。可能網路阻塞問題導致依賴庫下載不完整導致,多次執行命令(一次通過比較難):
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
3)報ant、protobuf等錯誤,插件下載未完整或者插件版本問題,最開始鏈接有較多特殊情況,同時推薦
2.7.0版本的問題匯總帖子 http://www.tuicool.com/articles/IBn63qf
五、常見錯誤及解決方案
1)防火牆沒關閉、或者沒有啟動yarnx
INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
2)主機名稱配置錯誤
3)ip地址配置錯誤
4)ssh沒有配置好
5)root用戶和memories兩個用戶啟動集群不統一
6)配置文件修改不細心
7)未編譯源碼
Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/04/12 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
8)datanode不被namenode識別問題
Namenode在format初始化的時候會形成兩個標識,blockPoolId和clusterId。新的datanode加入時,會獲取這兩個標識作為自己工作目錄中的標識。
一旦namenode重新format後,namenode的身份標識已變,而datanode如果依然持有原來的id,就不會被namenode識別。
解決辦法,刪除datanode節點中的數據後,再次重新格式化namenode。
9)不識別主機名稱
java.net.UnknownHostException: hadoop102: hadoop102
at java.net.InetAddress.getLocalHost(InetAddress.java:1475)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
解決辦法:
(1)在/etc/hosts文件中添加192.168.1.102 hadoop102
(2)主機名稱不要起hadoop hadoop000等特殊名稱
10)datanode和namenode進程同時只能工作一個。
11)執行命令 不生效,粘貼word中命令時,遇到-和長–沒區分開。導致命令失效
解決辦法:盡量不要粘貼word中代碼。
12)jps發現進程已經沒有,但是重新啟動集群,提示進程已經開啟。原因是在linux的根目錄下/tmp目錄中存在啟動的進程臨時文件,將集群相關進程刪除掉,再重新啟動集群。
13)jps不生效。
原因:全局變數hadoop java沒有生效,需要source /etc/profile文件。
14)8088埠連接不上
[atguigu@hadoop102 桌面]$ cat /etc/hosts
注釋掉如下代碼
#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
#::1 hadoop102
推薦閱讀:
※大數據殺熟憑的是什麼?
※大數據計數原理1+0=1這你都不會算(六)No.57
※阿里將全面進軍IoT | 一周綜述
※90周年大閱兵,100多架飛機是如何做到協同作戰?
※想搞大數據??你這樣是自尋死路!!