單項(xiàng)選擇題以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的?()

A.冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響
B.子樹可能在決策樹中重復(fù)多次
C.決策樹算法對(duì)于噪聲的干擾非常敏感
D.尋找最佳決策樹是NP完全問題


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題以下哪些分類方法可以較好地避免樣本的不平衡問題,()。

A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)

2.單項(xiàng)選擇題以下哪些算法是分類算法,()。

A.DBSCAN
B.C4.5
C.K-Mean
D.EM

3.單項(xiàng)選擇題下列()不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。

A.與同一時(shí)期其他數(shù)據(jù)對(duì)比
B.可視化
C.基于模板的方法
D.主觀興趣度量

4.單項(xiàng)選擇題下列度量不具有反演性的是()。

A.系數(shù)
B.幾率
C.Cohen度量
D.興趣因子

5.單項(xiàng)選擇題在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為()。

A.頻繁子集挖掘
B.頻繁子圖挖掘
C.頻繁數(shù)據(jù)項(xiàng)挖掘
D.頻繁模式挖掘

最新試題

對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。

題型:判斷題

小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計(jì)算機(jī)手段來完成。

題型:判斷題

根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對(duì)于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對(duì)應(yīng)的存儲(chǔ)系統(tǒng)。

題型:判斷題

如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。

題型:判斷題

任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題

任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。

題型:判斷題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題

當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。

題型:判斷題

數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會(huì)成倍的降低訪問時(shí)間。

題型:判斷題