A.矩陣
B.平行坐標(biāo)系
C.星形坐標(biāo)
D.散布圖
E.Chernoff臉
您可能感興趣的試卷
你可能感興趣的試題
A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
A.統(tǒng)計
B.計算機(jī)組成原理
C.礦產(chǎn)挖掘
D.人工智能
A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個算法過程使評分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
最新試題
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機(jī)森林通常比AdaBoost更好。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。