《Accessing Hadoop Data Using Hive》第一章Introduction To Hive問題集
課程地址:Accessing Hadoop Data Using Hive
1.Hive不是什麼?2.即便對於數據量很少的任務,HIVE也很慢嘛?
是的,HIVE的涉及是用來batch processing,not real time processing。
3.HIVE支持事務嘛?
不支持。
4.HIVE不支持哪些SQL操作?
update和delete都不支持。
但是HIVE支持覆蓋寫table。
5.HIVE是哪個公司開源的?
Facebook.
6.Facebook是基於什麼原因開發的HIVE?
傳統的RDBMS處理不了這麼大的數據了。而mapreduce門檻又比較高,所以想開發基於hadoop的類sql的db。
7.什麼是HIVE?8.HIVE的查詢語言叫什麼?HIVEQL或者HQL。
9.HIVE不是什麼?
如果你想要row level inserts/updates/deletes, transactions,可以用HBase。
10.和寫mapreduce相比,有什麼優勢?
通常用wordcount來比較,mapreduce需要63行代碼,HQL只需要7行。
11.Hive由哪些模塊組成?
12.Compiler做了什麼工作?
主要是把SQL轉換成了mapreduce DAG。
13.Executor做了什麼工作?
和Hadoop進行通訊,執行之前生成的mapreduce task。
14.Hive的文件結構?
15.Hive有哪些CLI?hive和beeline。
16.Hive的metastore是幹嘛的?
17.Hive的實際應用場景?
推薦閱讀:
※Hive On Spark, SparkSQL On Spark, 與Spark On YARN如何定義呢?
※為何Hive中的數據不均勻分布會導致數據傾斜?
※Hive JDBC入門示例
※在Hive中適不適合像傳統數據倉庫一樣利用維度建模?
TAG:Hive |