A.collection是在solrcloud集群中邏輯意義上完整的索引,可以被劃分為一個(gè)或多個(gè)shard,這些sahrd使用相同的configset。
B.configset時(shí)solrcore提供服務(wù)必須的一組配置文件,包括solrconfig.xml和schema.xml
C.shard是collection的邏輯分片,每個(gè)shard都包含了一個(gè)或者多個(gè)replicas,通過選舉確定哪個(gè)replica是leader,只有Leaderreplica才能進(jìn)行處理索引和查詢請求
D.reptica只有處于active狀態(tài)是才會(huì)接受索引和查詢請求
您可能感興趣的試卷
你可能感興趣的試題
A.一個(gè)用戶提交任務(wù),可以使用QueueA的100%的資源
B.QueueA中的每個(gè)用戶最多只能獲得50%的資源
C.如果QueueA中已經(jīng)有2個(gè)用戶的任務(wù)運(yùn)行,這時(shí)第3個(gè)用戶提交的任務(wù)需要等待釋放資源
D.QueueA中必須保障每個(gè)用戶至少得到50%的資源
A.3份
B.2份
C.1份
D.不確定
A.HMaster
B.DataNode
C.RegionSever
D.Zookeeper
A.DataNode
B.RegionServer
C.ResourceManager
D.NodeManager
最新試題
在MapReduce應(yīng)用程序開發(fā)中,setMapOutputCompressorClass類的作用是什么?()
在Spark中,關(guān)于廣播變量以下說法正確的是?()
Fusionlnsigt HD的Hive組件可以運(yùn)行在哪些分布式計(jì)算機(jī)框架上?()
Fusionlnsight HD中,Streaming打包工具用于將業(yè)務(wù)代碼jar包和其他所依賴的jar包等,打包成一個(gè)完整的Streaming應(yīng)用的jar包。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
在Solr的應(yīng)用查詢場景中,當(dāng)對查詢結(jié)果深度翻頁時(shí),需使用游標(biāo)進(jìn)行深度翻頁。下面對游標(biāo)說法正確的是?()
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個(gè)字段,分別是姓名,性別,上網(wǎng)時(shí)間,字段之間用“,”護(hù)分隔;要求打印輸出所有上網(wǎng)總時(shí)間大于兩小時(shí)的女性網(wǎng)友。請問如下哪些代碼片段能實(shí)現(xiàn)上述業(yè)務(wù)場景?()
對于HBase rowkey的設(shè)計(jì)原則,如下敘述正確的是?()
FusionLnsigh HD,Oozie支持HDFS Action。()