A.Spark
B.Streaming
C.MapReduce
D.HDFS
您可能感興趣的試卷
你可能感興趣的試題
A.kafkaadmin組
B.kafka組
C.kafkasuperuser組
A.按照源文件名,直接生成文件
B.設(shè)置文件生成間隔,達(dá)到時(shí)間間隔時(shí)就關(guān)閉老文件,新數(shù)據(jù)將被寫(xiě)入新文
C.設(shè)置單個(gè)文件大小,當(dāng)文件大小達(dá)到所設(shè)定值時(shí),就關(guān)閉老文件,新數(shù)據(jù)
D.設(shè)置單個(gè)文件存放在event數(shù)量,當(dāng)文件所存放event數(shù)量到設(shè)定值時(shí)
A.組網(wǎng)隔離環(huán)境下,ZooKeeper的IP既可以配置成業(yè)務(wù)IP,也可以配置成管理IP
B.Hive與傳統(tǒng)數(shù)據(jù)庫(kù)不同,因此JDBC建立的連接不需要關(guān)閉
C.安全集群環(huán)境下,建立與Hive的連接前,需要使用統(tǒng)一認(rèn)證方式進(jìn)行登陸
D.使用JDBCᨀ交SQL時(shí),可以再SQL語(yǔ)句后面加上分號(hào)“;”
A.C
B.Scala
C.Java
D.Python
最新試題
Fusionlnsight HD中,Streaming打包工具用于將業(yè)務(wù)代碼jar包和其他所依賴(lài)的jar包等,打包成一個(gè)完整的Streaming應(yīng)用的jar包。()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過(guò)分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語(yǔ)言可以用來(lái)開(kāi)發(fā)Spark應(yīng)用?()
Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問(wèn)HBase服務(wù),這種場(chǎng)景下推薦使用機(jī)機(jī)賬號(hào)。()
Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過(guò)Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯(cuò)誤的是?()
在Kafka中,關(guān)于Consumer說(shuō)法正確的是()。
關(guān)于Redis特點(diǎn),下面敘述正確的是?()
存在如下業(yè)務(wù)場(chǎng)景:用戶(hù)上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個(gè)字段,分別是姓名,性別,上網(wǎng)時(shí)間,字段之間用“,”護(hù)分隔;要求打印輸出所有上網(wǎng)總時(shí)間大于兩小時(shí)的女性網(wǎng)友。請(qǐng)問(wèn)如下哪些代碼片段能實(shí)現(xiàn)上述業(yè)務(wù)場(chǎng)景?()
Fusionlnsight HD支持通過(guò)哪些方式ᨀ交Oozie作業(yè)?()
用戶(hù)要開(kāi)發(fā)一個(gè)應(yīng)用去訪問(wèn)HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問(wèn)HBase服務(wù)的權(quán)限:然后下載該賬戶(hù)的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問(wèn)Hive服務(wù),那么在給tested用戶(hù)補(bǔ)充授予了訪問(wèn)Hive組件權(quán)限后,需重新下載該用戶(hù)的keytab文件。()