A.HDFS
B.NameNode
C.DataNode
D.HBase
您可能感興趣的試卷
你可能感興趣的試題
A.不會檢查數(shù)據(jù)的有效性
B.周期性地將本節(jié)點的Block發(fā)送給NameNode
C.不同的DataNode存儲的Block一定是不同的
D.一個DataNode上的Block可以是相同的
A.Spark
B.主機OS
C.YARN
D.HDFS
A.拓撲結(jié)構(gòu)過于復(fù)雜或者并發(fā)太大,導(dǎo)致worker啟動時間過長,超過supervisor的等待時間
B.Supervisor的是slots資源被耗盡,拓撲提交上去后分不到slot去啟動Worker進程
C.拓撲業(yè)務(wù)存在邏輯錯誤,提交之后無法正常運行
D.當數(shù)據(jù)量較大時,拓撲處理速度較慢
最新試題
關(guān)于Kafka的Producer,如下說法正確的是?()
Redis不適用與下面那些場景?()
關(guān)于Kafka的特點如下᧿述正確的是?()
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個HBase表中的內(nèi)容,這中場景下推薦管理員給這個用戶分配一個機機賬號。()
Fusionlnsigt HD的Hive組件可以運行在哪些分布式計算機框架上?()
Flume寫入HDFS時,文件的生成當時有哪些?()
Oozie的workflow.xml文件是工作流配置文件。()
在Spark中,關(guān)于廣播變量以下說法正確的是?()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
在MapReduce應(yīng)用程序開發(fā)中,setMapOutputCompressorClass類的作用是什么?()