多項(xiàng)選擇題
A.估計(jì)同一個(gè)總體參數(shù)可以用多個(gè)不同的統(tǒng)計(jì)量 B.統(tǒng)計(jì)量是樣本的函數(shù) C.統(tǒng)計(jì)量不含有總體的參數(shù) D.統(tǒng)計(jì)量是隨機(jī)變量
A.定性預(yù)測(cè) B.情景預(yù)測(cè) C.時(shí)間序列預(yù)測(cè) D.回歸預(yù)測(cè)
A.各處理?xiàng)l件下的樣本均來自正態(tài)總體 B.各處理?xiàng)l件下的樣本相互獨(dú)立 C.各處理?xiàng)l件下樣本的方差都相等 D.各處理?xiàng)l件下樣本均值相等,方差可以不等
A.凝聚方式聚類B.分解方式聚類C.Q型聚類D.R型聚類
A.ogistic回歸 B.SVM算法 C.CART決策樹 D.樸素貝葉斯
A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹數(shù)量的增加而提高 B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感 C.隨機(jī)森林算法不需要考慮過擬合問題 D.決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好 B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分 C.無法被用來產(chǎn)生更易于解釋的描述性模型 D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機(jī)取值 B.等距離散法 C.數(shù)值規(guī)約 D.等頻離散法
A.應(yīng)用邏輯回歸時(shí),異常值會(huì)對(duì)模型造成很大的干擾 B.邏輯回歸的自變量必須是分類變量,因此要對(duì)連續(xù)型變量進(jìn)行離散化處理 C.邏輯回歸對(duì)模型中自變量的多重共線性較為敏感 D.邏輯回歸屬于分類算法
A.預(yù)測(cè)準(zhǔn)確度 B.召回率 C.模型描述的簡(jiǎn)潔度 D.F1-Score
A.直接刪除 B.使用屬性的平均值填充空缺值 C.使用一個(gè)全局常量填充空缺值 D.使用與給定元組屬同一類的所有樣本的平均值