A.冗余屬性不會對決策樹的準確率造成不利的影響
B.子樹可能在決策樹中重復多次
C.決策樹算法對于噪聲的干擾非常敏感
D.尋找最佳決策樹是NP完全問題
您可能感興趣的試卷
你可能感興趣的試題
A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡
A.DBSCAN
B.C4.5
C.K-Mean
D.EM
A.與同一時期其他數(shù)據(jù)對比
B.可視化
C.基于模板的方法
D.主觀興趣度量
A.系數(shù)
B.幾率
C.Cohen度量
D.興趣因子
A.頻繁子集挖掘
B.頻繁子圖挖掘
C.頻繁數(shù)據(jù)項挖掘
D.頻繁模式挖掘
最新試題
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
假設屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
訓練神經(jīng)網(wǎng)絡具有過度擬合訓練數(shù)據(jù)的潛在問題。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
無論質心的初始化如何,K-Means始終會給出相同的結果。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。