A.會消耗大量的內(nèi)存
B.會產(chǎn)生大量的候選項集
C.對候選項集的支持度計算非常繁瑣
D.要對數(shù)據(jù)進行多次掃描
您可能感興趣的試卷
你可能感興趣的試題
A.簡潔性
B.確定性
C.實用性
D.新穎性
A.實用性
B.確定性
C.簡潔性
D.新穎性
A.布爾關(guān)聯(lián)規(guī)則和量化關(guān)聯(lián)規(guī)則
B.單維關(guān)聯(lián)規(guī)則和多維關(guān)聯(lián)規(guī)則
C.單層關(guān)聯(lián)規(guī)則和多層關(guān)聯(lián)規(guī)則
D.簡答關(guān)聯(lián)規(guī)則和復雜關(guān)聯(lián)規(guī)則
A.單維關(guān)聯(lián)規(guī)則
B.多維關(guān)聯(lián)規(guī)則
C.混合維關(guān)聯(lián)規(guī)則
D.不是一個關(guān)聯(lián)規(guī)則
A.概念描述
B.分類和預測
C.聚類分析
D.演變分析
最新試題
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。