A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)
您可能感興趣的試卷
你可能感興趣的試題
A.DBSCAN
B.C4.5
C.K-Mean
D.EM
A.與同一時(shí)期其他數(shù)據(jù)對(duì)比
B.可視化
C.基于模板的方法
D.主觀(guān)興趣度量
A.系數(shù)
B.幾率
C.Cohen度量
D.興趣因子
A.頻繁子集挖掘
B.頻繁子圖挖掘
C.頻繁數(shù)據(jù)項(xiàng)挖掘
D.頻繁模式挖掘
A.s=<{2,4},{3,5,6},{8}>,t=<{2},{3,6},{8}>
B.s=<{2,4},{3,5,6},{8}>,t=<{2},{8}>
C.s=<{1,2},{3,4}>,t=<{1},{2}>
D.s=<{2,4},{2,4}>,t=<{2},{4}>
最新試題
通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
要將工作申請(qǐng)分為兩類(lèi),并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類(lèi)器。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
使用偏差較小的模型總是比偏差較大的模型更好。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
使決策樹(shù)更深將確保更好的擬合度,但會(huì)降低魯棒性。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。
選擇用于k均值聚類(lèi)的聚類(lèi)數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。