A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
您可能感興趣的試卷
你可能感興趣的試題
A.統(tǒng)計(jì)
B.計(jì)算機(jī)組成原理
C.礦產(chǎn)挖掘
D.人工智能
A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個算法過程使評分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
A.JP聚類擅長處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強(qiáng)相關(guān)對象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時(shí)間復(fù)雜度為O(m)
最新試題
使用偏差較小的模型總是比偏差較大的模型更好。
要將工作申請分為兩類,并使用密度估計(jì)來檢測離職申請人,我們可以使用生成分類器。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
最大似然估計(jì)的一個缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會返回零的概率估計(jì)。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。