知識布局-大數據apache基礎組件安裝文檔
前言
最近寫了一個文檔,這裡放置一下具體的目錄。
目錄
1.部署準備
......1.1.修改主機名和hosts對應關係
......1.2 ntpd時間服務
............1.2.1.安裝ntp服務
............1.2.2.配置ntp服務端和客戶端
............1.2.2.啟動ntp
......1.3.ssh
............1.3.1.在A機下生成公鑰/私鑰對
............1.3.2.把A機下的id_rsa.pub複製到B機下
............1.3.3.B機把從A機複製的id_rsa.pub添加到.ssh/authorzied_keys文件里
............1.3.4.A機登錄B機
............1.3.5.需要配置ssh免密碼登陸的機器
......1.4.java環境
......1.5.文件句柄信息配置
2.zookeeper部署
......2.1.profile配置
......2.2.配置conf目錄下zoo.cfg文件
......2.3.配置myid文件
......2.4.配置zkEnv.sh
......2.5.自定義zk的日誌輸出
......2.6.啟動zookeeper
3.hadoop部署
......3.1.linux相應的配置文件
............3.1.1.profile配置
......3.2.hadoop相應配置文件
............3.2.1.hdfs-site.xml
............3.2.2.hadoop-env.sh
............3.2.3.slaves
............3.2.4.yarn-site.xml
............3.2.5.maped-env.sh
............3.2.6.yarn-env.sh
............3.2.7.core-site.xml
............3.2.8.mapred-site.xml
......3.3.hadoop啟動步驟
............3.3.1.啟動Zookeeper集群
............3.3.2.格式化Zookeeper集群
............3.3.3.啟動Journal集群
............3.3.4.格式化集群上的一個NameNode
............3.3.5.啟動集群中步驟4中的NameNode
............3.3.6.把NameNode的數據同步到另一個NameNode上
............3.3.7.啟動另個一NameNode在datanode01上執行
............3.3.8.啟動所有的DataNode
............3.3.9.啟動zookeeper選舉進程
............3.3.10.確認是否部署成功
4.hbase部署
......4.1. linux相應的配置文件
............4.1.1.profile配置
......4.2.hbase相應配置文件
............4.2.1.hbase-env.sh 配置
............4.2.2.hbase-site.xml配置
............4.2.3.regionservers
......4.3.hbase啟動命令
............4.3.1.創建軟連接
............4.3.2.啟動hbase
............4.3.3.檢查hbase是否搭建完成
5.spark部署
......5.1.安裝scala
......5.2.profile配置
......5.3.spark配置
............5.3.1.配置spark-env.sh
............5.3.2配置spark-defaults.conf
............5.3.3.slave節點配置
......5.4.啟動集群
6. kafka部署
......6.1.linux相應的配置文件
............6.1.1.profile配置
......6.2.kafka配置
......6.3.啟動kafka
推薦閱讀:
※HDFS NameNode內存詳解
※大數據那些事(30):Presto之坑和蘿蔔傻子和騙子的故事
※大數據那些事(29):從Spark到Spark
※做好機器學習,數學要學到什麼程度?