A.數(shù)據(jù)源
B.數(shù)據(jù)倉庫服務(wù)器
C.OLAP服務(wù)器
D.前端工具
您可能感興趣的試卷
你可能感興趣的試題
A.信息處理
B.互聯(lián)網(wǎng)搜索
C.分析處理
D.數(shù)據(jù)挖掘
A.1-100M
B.100M-10G
C.10-1000G
D.100GB-數(shù)TB
A.頂點方體
B.方體的格
C.基本方體
D.維
A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉(zhuǎn)軸(pivot)
A.上卷
B.下鉆
C.切塊
D.轉(zhuǎn)軸
最新試題
當數(shù)據(jù)集標簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應的數(shù)據(jù)。
經(jīng)常跟管理層打交道并進行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學項目的成功。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。