A.概念描述
B.分類和預(yù)測
C.聚類分析
D.演變分析
您可能感興趣的試卷
你可能感興趣的試題
A.劃分的方法
B.基于模型的方法
C.基于密度的方法
D.層次的方法
A.Euclidean距離
B.Manhattan距離
C.Eula距離
D.Minkowski距離
A.判定樹歸納
B.貝葉斯分類
C.后向傳播分類
D.基于案例的推理
A.分類和聚類都是有指導(dǎo)的學(xué)習(xí)
B.分類和聚類都是無指導(dǎo)的學(xué)習(xí)
C.分類是有指導(dǎo)的學(xué)習(xí),聚類是無指導(dǎo)的學(xué)習(xí)
D.分類是無指導(dǎo)的學(xué)習(xí),聚類是有指導(dǎo)的學(xué)習(xí)
A.判定樹歸納
B.貝葉斯分類
C.后向傳播分類
D.基于案例的推理
最新試題
管理員不需要驗(yàn)證就可以訪問數(shù)據(jù)存儲系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來設(shè)計(jì)和實(shí)現(xiàn)的。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會返回零的概率估計(jì)。