您可能感興趣的試卷
你可能感興趣的試題
A.4
B.5
C.6
D.7
A.OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高
B.OLAP的最終數(shù)據(jù)來(lái)源與OLTP不一樣
C.OLTP面對(duì)的是決策人員和高層管理人員
D.OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動(dòng)的
最新試題
使用偏差較小的模型總是比偏差較大的模型更好。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
使決策樹(shù)更深將確保更好的擬合度,但會(huì)降低魯棒性。
給定用于2類分類問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。
要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。