A.Avro
B.HBase
C.Kafka
D.HTTP
您可能感興趣的試卷
你可能感興趣的試題
A.采用hash結(jié)構(gòu),且一個(gè)表使用一個(gè)hash KEY,表中一行記錄對于hash KEY的一個(gè)field
B.采用hash結(jié)構(gòu),每個(gè)表的每一行記錄使用一個(gè)hash KEY,hash KEY的field對應(yīng)表記錄的字段,且設(shè)計(jì)KEY時(shí)各個(gè)表添加不同的前綴以區(qū)分
C.采用string結(jié)構(gòu),每個(gè)表的每一行記錄的每個(gè)字段使用一個(gè)KEY
D.采用string結(jié)構(gòu),每個(gè)表的每一行記錄使用一個(gè)KEY,value為表中一行記錄的所有字段拼接后的值
A.在Solr上建立索引,并保存數(shù)據(jù),在全文檢索時(shí),將所有數(shù)據(jù)全部返回
B.在HBase上存放數(shù)據(jù),通過HBase的過濾特性,滿足模糊匹配查詢
C.存放數(shù)據(jù)時(shí),在Solr上建立索引,在HBasx存放完整數(shù)據(jù);查詢時(shí),通過Solr全文檢索獲取記錄關(guān)鍵信息,通過關(guān)鍵信息在HBase上獲取完整記錄
A.點(diǎn)擊Cloud下的Tree,查看Solr Cloud中Collections、配置集和live_nodes等元數(shù)據(jù)信息
B.點(diǎn)擊Cloud,查看各Collection下各個(gè)ShardReplica的分布及狀態(tài)
C.進(jìn)入某Collection的Shard Replica的Core Overview界面,可以查看到該Replica索引實(shí)際文檔條數(shù)、存儲大小和位置信息
D.Solr用戶組、Solradmin角色和Super group的用戶可以訪問Solr Admin UI
最新試題
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說法錯(cuò)誤的是?()
關(guān)于Redis特點(diǎn),下面敘述正確的是?()
Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機(jī)機(jī)賬號。()
Oozie的workflow.xml文件是工作流配置文件。()
在通過Fusionlnsight manager界面創(chuàng)建用戶時(shí),想要該用戶對所有Topic具有讀寫權(quán)限,但不具有常見Topic的權(quán)限,應(yīng)該加入Kafka服務(wù)的那個(gè)組?()
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請了一個(gè)機(jī)機(jī)賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
關(guān)于Kafka的Producer,如下說法正確的是?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Fusionlnsight HD系統(tǒng)中,Solr示例工程solr-example\confisolr-confisolr.properties中ZK_URL和ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL的值可以從下面哪個(gè)選項(xiàng)獲?。浚ǎ?/p>
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。