A.揭示數(shù)據(jù)之間的相互依賴關(guān)系
B.適用于沒有先驗(yàn)知識(shí)的分類
C.可以處理多個(gè)變量決定的分類
D.聚類分析法是一種探索性分析方法,能夠分析事物的內(nèi)在特點(diǎn)和規(guī)律,并根據(jù)相似性原則對(duì)事物進(jìn)行分組,是數(shù)據(jù)挖掘中常用的一種技術(shù)
您可能感興趣的試卷
你可能感興趣的試題
A.長(zhǎng)期存儲(chǔ)在計(jì)算機(jī)內(nèi)的
B.有組織的
C.可共享的
D.統(tǒng)一管理的
A.修正多重判定系數(shù)越接近于1,方程的擬合程度越好
B.估計(jì)標(biāo)準(zhǔn)誤差越小,方程的擬合程度越好
C.F檢驗(yàn)的概率值越小,方程的整體線性關(guān)系越顯著
D.各個(gè)回歸系數(shù)的t檢驗(yàn)的概率值越小,所對(duì)應(yīng)的自變量對(duì)因變量y的影響越顯著
A.價(jià)格不變,提高產(chǎn)量
B.價(jià)格不變,提高質(zhì)量
C.質(zhì)量不變,降低價(jià)格
D.價(jià)格提高,質(zhì)量提高
A.最近一期值
B.第一期實(shí)際值
C.最近幾期的均值
D.最初幾期的均值
A.樣本越大,抽樣誤差越小
B.樣本越大,抽樣誤差越大
C.總體差異大,需要抽取的樣本數(shù)量小
D.總體差異大,需要抽取的樣本數(shù)量較大
最新試題
關(guān)于logistic回歸的說法中不正確的是()。
對(duì)于同一個(gè)樣本集,下列說法正確是()。
相比其他決策分類模型,隨機(jī)森林算法模型的優(yōu)點(diǎn)有()。
以下企業(yè)核心競(jìng)爭(zhēng)力系統(tǒng)的組織部分,正確的是()。
SVM算法的缺點(diǎn)包括()。
在訓(xùn)練樣本集中,對(duì)于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>
在以下條件下,需求可能缺乏彈性()。
標(biāo)準(zhǔn)正態(tài)分布的期望值μ和標(biāo)準(zhǔn)差σ分別為()
下列哪些是搜集數(shù)據(jù)的組織方式()。
關(guān)于樸素貝葉斯算法,下列說法正確的是()。