centos7 hadoop 單機模式安裝配置
來自專欄 Spark
轉載請務必註明原創地址為:http://dongkelun.com/2018/03/23/hadoopConf/
前言
由於現在要用spark,而學習spark會和hdfs和hive打交道,之前在公司伺服器配的分散式集群,離開公司之後,自己就不能用了,後來用ambari搭的三台虛擬機的集群太卡了,所以就上網查了一下hadoop+hive的單機部署,以便自己能進行簡單的學習,這裡記錄一下,本來想把hadoop和hive的放在一起寫,由於太多,就分成兩篇寫了。
1、首先安裝配置jdk(我安裝的1.8)
2、下載hadoop
下載地址:http://mirror.bit.edu.cn/apache/hadoop/common/,我下載的是hadoop-2.7.5.tar.gz
(由於我之前用的2.7.1是幾年前下載保存在本地的,現在發現之前在配置spark那篇寫的那個hadoop下載地址較慢,所以改成這個地址)
3、解壓到/opt目錄下(目錄根據自己習慣)
tar -zxvf hadoop-2.7.5.tar.gz -C /opt/
4、配置hadoop環境變數
vim /etc/profileexport HADOOP_HOME=/opt/hadoop-2.7.5export PATH=$PATH:$HADOOP_HOME/binsource /etc/profile
5、配置hadoop
5.1 配置hadoop-env.sh
vim /opt/hadoop-2.7.5/etc/hadoop/hadoop-env.sh
找到# The java implementation to use.將其下面的一行改為:
export JAVA_HOME=/opt/jdk1.8.0_45
5.2 配置core-site.xml (5.2和5.3中配置文件里的文件路徑和埠隨自己習慣配置)
其中的IP:192.168.44.128為虛擬機ip,不能設置為localhost,如果用localhost,後面在windows上用saprk連接伺服器(虛擬機)上的hive會報異常(win讀取的配置也是localhost,這樣localhost就為win本地ip了~也可以給ip加個映射,不過因為單機的我就沒加)。
vim /opt/hadoop-2.7.5/etc/hadoop/core-site.xml<configuration><property> <name>hadoop.tmp.dir</name> <value>file:///opt/hadoop-2.7.5</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.44.128:8888</value> </property></configuration>
5.3 配置hdfs-site.xml
vim /opt/hadoop-2.7.5/etc/hadoop/hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///opt/hadoop-2.7.5/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///opt/hadoop-2.7.5/tmp/dfs/data</value> </property></configuration>
6、SSH免密碼登錄
參考:linux ssh 免密登錄
7、啟動與停止
第一次啟動hdfs需要格式化:
cd /opt/hadoop-2.7.5./bin/hdfs namenode -format
Re-format filesystem in Storage Directory /opt/hadoop-2.7.5/tmp/dfs/name ? (Y or N)
輸入:Y(出現詢問輸入Y or N,全部輸Y即可)啟動:./sbin/start-dfs.sh
停止:
./sbin/stop-dfs.sh
驗證,瀏覽器輸入:http://192.168.44.128:50070
簡單的驗證hadoop命令:
hadoop fs -mkdir /test
在瀏覽器查看,出現如下圖所示,即為成功
8、配置yarn
8.1 配置mapred-site.xml
cd /opt/hadoop-2.7.5/etc/hadoop/cp mapred-site.xml.template mapred-site.xmlvim mapred-site.xml<configuration> <!-- 通知框架MR使用YARN --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property></configuration>
8.2 配置yarn-site.xml
vim yarn-site.xml<configuration> <!-- reducer取數據的方式是mapreduce_shuffle --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property></configuration>
8.3 yarn啟動與停止
啟動:
cd /opt/hadoop-2.7.5./sbin/start-yarn.sh./sbin/stop-yarn.sh
瀏覽器查看:http://192.168.44.128:8088
參考資料
https://blog.csdn.net/cafebar123/article/details/73500014
推薦閱讀:
※CentOS 搭建SVN服務
※CentOS下安裝apache出現缺少mime.types
※Linux-CentOs7-svn安裝
※Centos6.X 64位安裝Mysql 5.7
※CentOS 5安裝ROR