多項(xiàng)選擇題尋找數(shù)據(jù)集中的關(guān)系是為了尋找精確、方便并且有價值地總結(jié)了數(shù)據(jù)的某一特征的表示,這個過程包括了以下哪些步驟?()

A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個算法過程使評分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法


您可能感興趣的試卷

你可能感興趣的試題

2.單項(xiàng)選擇題下面關(guān)于Jarvis-Patrick(JP)聚類算法的說法不正確的是()。

A.JP聚類擅長處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強(qiáng)相關(guān)對象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時間復(fù)雜度為O(m)

4.單項(xiàng)選擇題以下哪個聚類算法不屬于基于網(wǎng)格的聚類算法()。

A.STING
B.WaveCluster
C.MAFIA
D.BIRCH

5.單項(xiàng)選擇題關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是()。

A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時,混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時不會存在問題

最新試題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

使決策樹更深將確保更好的擬合度,但會降低魯棒性。

題型:判斷題

當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。

題型:判斷題

當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點(diǎn)時,隨機(jī)森林通常比AdaBoost更好。

題型:判斷題

數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。

題型:判斷題

根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。

題型:判斷題

選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。

題型:判斷題

最大似然估計(jì)的一個缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會返回零的概率估計(jì)。

題型:判斷題

由于決策樹學(xué)會了對離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題