第八章:Hadoop編譯源碼

第八章:Hadoop編譯源碼

(作者:Memories)

一、前期準備工作

1)CentOS聯網

配置CentOS能連接外網。Linux虛擬機ping www.baidu.com 是暢通的

注意:採用root角色編譯,減少文件夾許可權出現問題

2)jar包準備(hadoop源碼、JDK8、maven、ant 、protobuf)

(1)hadoop-2.7.2-src.tar.gz

(2)jdk-8u144-linux-x64.tar.gz

(3)apache-ant-1.9.9-bin.tar.gz

(4)apache-maven-3.0.5-bin.tar.gz

(5)protobuf-2.5.0.tar.gz

百度雲鏈接:pan.baidu.com/s/1zQbjnu 密碼:oqiq

二、jar包安裝

0)注意:所有操作必須在root用戶下完成

1)JDK解壓、配置環境變數 JAVA_HOME和PATH,驗證java-version(如下都需要驗證是否配置成功)

前面的教程我們已經安裝,這裡不在重複。

驗證命令:java -version

2)Maven解壓、配置 MAVEN_HOME和PATH。

[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/

[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml

<mirrors>

<!-- mirror

| Specifies a repository mirror site to use instead of a given repository. The repository that

| this mirror serves has an ID that matches the mirrorOf element of this mirror. IDs are used

| for inheritance and direct lookup purposes, and must be unique across the set of mirrors.

|

<mirror>

<id>mirrorId</id>

<mirrorOf>repositoryId</mirrorOf>

<name>Human Readable Name for this Mirror.</name>

<url>my.repository.com/repo/</url>

</mirror>

-->

<mirror>

<id>nexus-aliyun</id>

<mirrorOf>central</mirrorOf>

<name>Nexus aliyun</name>

<url>maven.aliyun.com/nexus/</url>

</mirror>

</mirrors>

[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile

#MAVEN_HOME

export MAVEN_HOME=/opt/module/apache-maven-3.0.5

export PATH=$PATH:$MAVEN_HOME/bin

[root@hadoop101 software]#source /etc/profile

驗證命令:mvn -version

3)ant解壓、配置 ANT _HOME和PATH。

[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/

[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile

#ANT_HOME

export ANT_HOME=/opt/module/apache-ant-1.9.9

export PATH=$PATH:$ANT_HOME/bin

[root@hadoop101 software]#source /etc/profile

驗證命令:ant -version

4)安裝 glibc-headers 和 g++ 命令如下:

[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers

[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++

5)安裝make和cmake

[root@hadoop101 apache-ant-1.9.9]# yum install make

[root@hadoop101 apache-ant-1.9.9]# yum install cmake

6)解壓protobuf ,進入到解壓後protobuf主目錄,/opt/module/protobuf-2.5.0

然後相繼執行命令:

[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/

[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/

[root@hadoop101 protobuf-2.5.0]#./configure

[root@hadoop101 protobuf-2.5.0]# make

[root@hadoop101 protobuf-2.5.0]# make check

[root@hadoop101 protobuf-2.5.0]# make install

[root@hadoop101 protobuf-2.5.0]# ldconfig

[root@hadoop101 hadoop-dist]# vi /etc/profile

#LD_LIBRARY_PATH

export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0

export PATH=$PATH:$LD_LIBRARY_PATH

[root@hadoop101 software]#source /etc/profile

驗證命令:protoc --version

7)安裝openssl庫

[root@hadoop101 software]#yum install openssl-devel

8)安裝 ncurses-devel庫:

[root@hadoop101 software]#yum install ncurses-devel

到此,編譯工具安裝基本完成。

三、編譯源碼

1)解壓源碼到/opt/目錄

[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/

2)進入到hadoop源碼主目錄

[root@hadoop101 hadoop-2.7.2-src]# pwd

/opt/hadoop-2.7.2-src

3)通過maven執行編譯命令

[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar

等待時間30分鐘左右,最終成功是全部SUCCESS。

4)成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下。

[root@hadoop101 target]# pwd

/opt/hadoop-2.7.2-src/hadoop-dist/target

四、常見的問題及解決方案

1)MAVEN install時候JVM內存溢出

處理方式:在環境配置文件和maven的執行文件均可調整MAVEN_OPT的heap大小。(詳情查閱MAVEN 編譯 JVM調優問題,如:outofmemory.cn/code-sni

2)編譯期間maven報錯。可能網路阻塞問題導致依賴庫下載不完整導致,多次執行命令(一次通過比較難):

[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar

3)報ant、protobuf等錯誤,插件下載未完整或者插件版本問題,最開始鏈接有較多特殊情況,同時推薦

2.7.0版本的問題匯總帖子 tuicool.com/articles/IB

五、常見錯誤及解決方案

1)防火牆沒關閉、或者沒有啟動yarnx

INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

2)主機名稱配置錯誤

3)ip地址配置錯誤

4)ssh沒有配置好

5)root用戶和memories兩個用戶啟動集群不統一

6)配置文件修改不細心

7)未編譯源碼

Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

18/04/12 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

8)datanode不被namenode識別問題

Namenode在format初始化的時候會形成兩個標識,blockPoolId和clusterId。新的datanode加入時,會獲取這兩個標識作為自己工作目錄中的標識。

一旦namenode重新format後,namenode的身份標識已變,而datanode如果依然持有原來的id,就不會被namenode識別。

解決辦法,刪除datanode節點中的數據後,再次重新格式化namenode。

9)不識別主機名稱

java.net.UnknownHostException: hadoop102: hadoop102

at java.net.InetAddress.getLocalHost(InetAddress.java:1475)

at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)

at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)

at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)

at java.security.AccessController.doPrivileged(Native Method)

at javax.security.auth.Subject.doAs(Subject.java:415)

解決辦法:

(1)在/etc/hosts文件中添加192.168.1.102 hadoop102

(2)主機名稱不要起hadoop hadoop000等特殊名稱

10)datanode和namenode進程同時只能工作一個。

11)執行命令 不生效,粘貼word中命令時,遇到-和長–沒區分開。導致命令失效

解決辦法:盡量不要粘貼word中代碼。

12)jps發現進程已經沒有,但是重新啟動集群,提示進程已經開啟。原因是在linux的根目錄下/tmp目錄中存在啟動的進程臨時文件,將集群相關進程刪除掉,再重新啟動集群。

13)jps不生效。

原因:全局變數hadoop java沒有生效,需要source /etc/profile文件。

14)8088埠連接不上

[atguigu@hadoop102 桌面]$ cat /etc/hosts

注釋掉如下代碼

#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

#::1 hadoop102


推薦閱讀:

大數據殺熟憑的是什麼?
大數據計數原理1+0=1這你都不會算(六)No.57
阿里將全面進軍IoT | 一周綜述
90周年大閱兵,100多架飛機是如何做到協同作戰?
想搞大數據??你這樣是自尋死路!!

TAG:Hadoop | 大數據 | Spark |