標籤:

知識篇:新一代的數據處理平台Hadoop簡介

在雲計算和大數據大行其道的今天,Hadoop及其相關技術起到了非常重要的作用,是這個時代不容忽視的一個技術平台。事實上,由於其開源、低成本和和前所未有的擴展性,Hadoop正成為新一代的數據處理平台。

Hadoop是基於Java語言構建的一套分散式數據處理框架,從其歷史發展角度我們就可以看出,Hadoop一誕生,就具備高貴的血統,發展順風順水:

  • 2004年,Google發表論文,向全世界介紹了MapReduce
  • 2005年初,為了支持Nutch搜索引擎項目,Nutch的開發者基於Google發布的MapReduce報告,在Nutch上開發了一個可工作的MapReduce應用
  • 2005年中,所有主要的Nutch演算法被移植到MapReduce和NDFS(NutchDistributedFileSystem)環境來運行
  • 2006年2月,ApacheHadoop項目正式啟動以支持MapReduce和HDFS的獨立發展
  • 2007年,百度開始使用Hadoop做離線處理,目前差不多80%的Hadoop集群用作日誌處理
  • 2008年,淘寶開始投入研究基於Hadoop的系統–雲梯,並將其用於處理電子商務相關數據。雲梯1的總容量大概為9.3PB,包含了1100台機器,每天處理約18000道作業,掃描500TB數據
  • 2008年1月,Hadoop成為Apache頂級項目
  • 2008年7月,Hadoop打破1TB數據排序基準測試記錄。Yahoo的一個Hadoop集群用209秒完成1TB數據的排序,比上一年的紀錄保持者保持的297秒快了將近90秒

……

很多人開始接觸Hadoop時,都以為這是一個項目,其實Hadoop除了核心的MapReduce和HDFS之外,還包含了眾多的子項目,換句話說,Hadoop已經形成了一個豐富的技術生態圈:

隨著互聯網的飛速發展,大量數據的存儲和分析遇到瓶頸,磁碟容量的增長遠遠大於磁碟讀取速度,1TB的磁碟,數據傳輸速度100MB/s,讀一遍2.5H,寫數據就別提了,心拔涼拔涼的(當然SSD在生產環境的實際應用,大大緩解了這一窘境)。

數據量的增長在互聯網應用中體現的非常明顯,好的互聯網應用動輒就有上千萬的用戶,無論是數據的容量、壓力都與日俱增。

另外在企業應用層面,很多大中型企業,信息化進行了十幾年,企業內部積累了大量的非結構化數據,各種類型的文件需要存儲、備份、分析、展示,苦於沒有很好的辦法進行數據處理。

那麼如何解決這樣的問題,技術牛人自然有辦法,比如磁碟數據的並行讀寫,數據分塊,分散式文件系統,冗餘數據,MapReduce演算法等等,最後Hadoop等類似的技術應運而生。於是我等草民有福了。

不是有那麼一句話么,大數據勝於好演算法,如果數據足夠多,可能產生出意想之外的應用,看看現在Facebook、Twitter、微博相關的衍生應用就知道了。另外,無論演算法好壞,更多的數據總能帶了來更好的推薦效果,這也是顯而易見。

所以,無論雲計算和大數據口號喊的多麼虛頭八腦,但Hadoop都是一門非常務實的技術,無論你身在互聯網企業還是傳統軟體公司,都應該學習和了解這門技術。

Hadoop的部署提供三種模式,本地模式、偽分布模式和全分布模式,建議大家採用第三種進行實踐,這樣對系統用法的理解更深入一些。

這就需要你至少要兩台機器進行集群,比較好的方式是使用虛擬機。Hadoop原生支持Unix/Linux,你要是想在Windows上玩,還需要裝模擬環境cygwin。

這時候就體現出Mac用戶的優勢了,我是採用Mac做Master,起兩台虛擬Linux做Slave,SSD+8G內存,毫無壓力。這樣做的好處其實在Unix編程思想這部書中也提到過,就是用最小工作環境達到最大的工作範圍。

推薦閱讀:

五分鐘零基礎搞懂Hadoop
Spark編程有哪些有用技巧?
Kafka 2017技術峰會摘要(pipeline分類)
HBase可以替代redis嗎?

TAG:Hadoop |