問(wèn)答題

一個(gè)數(shù)據(jù)庫(kù)有5個(gè)事務(wù),如表所示。設(shè)min_sup=60%,min_conf=80%。

(a)分別用Apriori算法和FP-growth算法找出所有頻繁項(xiàng)集。比較兩種挖掘方法的效率。
(b)比較窮舉法和Apriori算法生成的候選項(xiàng)集的數(shù)量。
(c)利用(1)所找出的頻繁項(xiàng)集,生成所有的強(qiáng)關(guān)聯(lián)規(guī)則和對(duì)應(yīng)的支持度和置信度。


您可能感興趣的試卷

你可能感興趣的試題

最新試題

數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來(lái)設(shè)計(jì)和實(shí)現(xiàn)的。

題型:判斷題

經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。

題型:判斷題

無(wú)論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過(guò)允許更多隱藏狀態(tài)來(lái)增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。

題型:判斷題

數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。

題型:判斷題

任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。

題型:判斷題