A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹(shù)數(shù)量的增加而提高
B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感
C.隨機(jī)森林算法不需要考慮過(guò)擬合問(wèn)題
D.決策樹(shù)之間相關(guān)系數(shù)越低、每棵決策樹(shù)分類精度越高的隨機(jī)森林模型的分類效果越好
您可能感興趣的試卷
你可能感興趣的試題
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹(shù)好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機(jī)取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
A.應(yīng)用邏輯回歸時(shí),異常值會(huì)對(duì)模型造成很大的干擾
B.邏輯回歸的自變量必須是分類變量,因此要對(duì)連續(xù)型變量進(jìn)行離散化處理
C.邏輯回歸對(duì)模型中自變量的多重共線性較為敏感
D.邏輯回歸屬于分類算法
A.預(yù)測(cè)準(zhǔn)確度
B.召回率
C.模型描述的簡(jiǎn)潔度
D.F1-Score
A.直接刪除
B.使用屬性的平均值填充空缺值
C.使用一個(gè)全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
最新試題
以下對(duì)于KNN算法的描述中正確的是()。
當(dāng)買方資產(chǎn)專用性高,而賣方資產(chǎn)專用性低時(shí),賣方企業(yè)選擇的戰(zhàn)略不是以下哪幾項(xiàng)()。
決策樹(shù)模型的缺點(diǎn)有()。
關(guān)于變異系數(shù)的表述,下列說(shuō)法正確的是()。
標(biāo)準(zhǔn)正態(tài)分布的期望值μ和標(biāo)準(zhǔn)差σ分別為()
以下對(duì)SVM算法的描述中正確的是()。
對(duì)于同一個(gè)樣本集,下列說(shuō)法正確是()。
測(cè)度數(shù)據(jù)集中趨勢(shì)的指標(biāo)可分為()兩大類。
有效的市場(chǎng)細(xì)分必須滿足如下條件()。
投擲一顆骰子,令X表示出現(xiàn)的點(diǎn)數(shù),那么{X≤4}表示的是()。