A.各處理?xiàng)l件下的樣本均來(lái)自正態(tài)總體
B.各處理?xiàng)l件下的樣本相互獨(dú)立
C.各處理?xiàng)l件下樣本的方差都相等
D.各處理?xiàng)l件下樣本均值相等,方差可以不等
您可能感興趣的試卷
你可能感興趣的試題
A.凝聚方式聚類
B.分解方式聚類
C.Q型聚類
D.R型聚類
A.ogistic回歸
B.SVM算法
C.CART決策樹(shù)
D.樸素貝葉斯
A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹(shù)數(shù)量的增加而提高
B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感
C.隨機(jī)森林算法不需要考慮過(guò)擬合問(wèn)題
D.決策樹(shù)之間相關(guān)系數(shù)越低、每棵決策樹(shù)分類精度越高的隨機(jī)森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹(shù)好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機(jī)取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
最新試題
關(guān)于樸素貝葉斯算法,下列說(shuō)法正確的是()。
SVM算法的缺點(diǎn)包括()。
以下企業(yè)核心競(jìng)爭(zhēng)力系統(tǒng)的組織部分,正確的是()。
關(guān)于大數(shù)據(jù)的來(lái)源,以下理解正確的是()。
判斷下列各個(gè)量,哪些是隨機(jī)變量()。
建設(shè)投資包括()等。
當(dāng)買方資產(chǎn)專用性高,而賣方資產(chǎn)專用性低時(shí),賣方企業(yè)選擇的戰(zhàn)略不是以下哪幾項(xiàng)()。
SQL語(yǔ)言由()組成。
一個(gè)時(shí)間序列由長(zhǎng)期趨勢(shì)、季節(jié)變動(dòng)、循環(huán)波動(dòng)和不規(guī)則波動(dòng)四種成分構(gòu)成,()。
在訓(xùn)練樣本集中,對(duì)于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>